
From a general perspective, have we already reached a critical point regarding the development of Artificial Intelligence? In the case of environmental preservation, we know that for now, if humanity becomes aware and decides to implement sustainability actions, we can still have this planet called Earth functioning and providing for all humans on it for a long time. Now, making an analogy with AI technology, will we have a similar critical point?
The development of this technology has advanced every day, causing this question to be constantly asked by people. Based on the Turing Test, we will see if these AIs are already reaching a level close to SkyNet, or if we still have time, as in the matter of environmental preservation, to take the correct actions to prevent the emergence of some type of AI with consciousness that could harm the human race.
I'll be much appreaciated if you Votes, Reblogs or give any Tips. Thanks and have good reading! 🍀
To contextualize the analysis and reflection, it's worth understanding what the Turing test is. The Turing Test was created by Alan Turing in 1949/1950. During this wartime period, the theoretical advancement of computing was very significant because there was a war in the area of technology where both sides sought to decode each other's messages. The Turing Test begins with the question: "Can machines think?" At the time, computers and large machines were new technologies; our current form of Artificial Intelligence did not yet exist, so the most commonly used term was "machines," but we can consider them as AIs or robots. The Turing Test was a way to determine whether a machine would be intelligent or not. In this test, there would be three participants, as shown in the figure above. The first player, A, would be the machine attempting to impersonate a human; participant B, a normal human acting like a normal human, answering questions normally; and finally, player C, a tester who would ask the questions and differentiate a machine from a human.
At that time, computers were not capable of accurately simulating human behavior, and several predecessors of current AI models failed the Turing Test. Turing believed that if a machine, AI, or robot could impersonate a human, making the person asking the questions believe it was a human, then that machine could be considered "Intelligent." It's not hard to imagine that today AIs are capable not only of solving the Turing test, which would be done through text, but are reaching the point of being able to imitate human voices and also generate realistic videos. For those watching content without paying close attention, depending on the video and the adjustments made, finding the difference between a video made by AI and one made by a real person is already a difficult task.
Even though Artificial Intelligences already have great capabilities, they "still" haven't developed their own thinking, nor even critical thinking. While there was a lot of hype surrounding a recent artificial network for AI bots to communicate with each other, some videos already show that the interactions were controlled by users and relayed to the AI agents, so it wasn't something that originated from them. But does it need to reach that level for people to start considering the risks of this technology?
With the evolution of technology raising computational levels thanks to the large amount of money flowing into this sector, each month seems to be equivalent to years of development, with new technologies and hardware advancements constantly emerging from Nvidia and software companies improving their AI models. This high liquidity has made access to the latest models more democratic, and their power has increased along with the rise in computing power. Therefore, while you can use AI today to generate a cute photo, you could also use it to do something bad... Does it really need to reach the level of a conscious Skynet, or could we already have some kind of Skynet today, we just haven't realized it yet? Individual power has grown significantly since each access to AI is a processing task performed by a near-expert in the field. Wasn't the Turing Test our first warning sign?


Em uma perspectiva geral será que já chegamos em um ponto crítico com relação ao desenvolvimento da Inteligência Artificial? No caso da preservação do meio ambiente, sabemos que por enquanto caso a humanidade tome consciência e resolva implementar as ações de sustentabilidade ainda poderemos ficar um bom tempo com esse planeta chamado Terra, funcionando e provendo para todos os humanos presentes nela. Agora, fazendo uma analogia com a tecnologia de AI, será que teremos um ponto crítico parecido?
O desenvolvimento dessa tecnologia tem avançado a cada dia fazendo com que essa dúvida seja feita constantemente pelas pessoas. Veremos com base no Teste de Turing se essas IAs já estão chegando em um nível próximo da SkyNet ou se ainda temos tempo, como na questão da preservação do meio ambiente, de tomar as ações corretas para previnir o surgimento de algum tipo de IA com consciencia e que possa fazer mal para a raça humana.
Fico agradecido se você puder dar um Voto, Reblogs ou algum Tips. Obrigado e boa leitura! 🍀
Para contextualizar a análise e a reflexão, vale entender inicial o que é o teste de turing. O Teste de Turing foi um teste criado por Alan Turing em 1949/1950, nesse período de guerra, o avanço teórico da computação foi muito grande porque havia uma guerra na área de tecnologia em que ambos os lados buscam decodificar as mensagens do outro. O Teste de Turing começa com a questão: "Máquinas podem pensar?", na época a novidade eram os computadores e as grande máquinas, não havia ainda a nossa forma atual de Inteligência Artifical, então o termo mais utilizado eram máquinas, mas podemos considerar como AIs ou robôs. O Teste de Turing era uma forma de determinar se uma máquina seria inteligente ou não. Nesse teste haveriam 3 participantes, como é apresentado na figura acima. O primeiro jogador A seria a máquina que tentaria se passar por um humano; o participante B um humano normal que agiria como um humano normal, respondendo as questões normalmente; por fim o jogador C um testador que faria as perguntas e diferenciaria uma máquina de um humano.
Nessa época os computadores não eram capazes de simular um comportamento humano de forma precisa e diversos predecessores dos modelos atuais de AI falharam no teste de Turing. Turing acreditava que se uma máquina, AI, robot conseguisse se passar por um humano, fazendo com que a pessoa fazendo as perguntas acreditasse que era um humano, então aquela máquina poderia ser considerada "Inteligente". Não é difícil pensar que hoje as AIs são capazes de resolver não só o teste de turing que seria feito atrvés de um texto, mas estão chegando ao ponto de conseguir imitar as vozes humanas e também gerar vídeos realistas. Para quem assiste ao conteúdo sem muita atenção, dependendo do vídeo feito e dos ajustes, encontrar a diferença entre um vídeo feito por AI ou não, já é uma tarefa difícil.
Mesmo que as Inteligências Artificiais já tenham grandes capacidades, elas "ainda" não desenvolveram pensamento próprio e nem mesmo crítico. Por mais que houve um grande hype com relação à uma rede artificial recente para os bots de ia comunicarem entre si, alguns vídeos já relatam que as interações eram controladas pelos usuários e repassadas aos agente de AI, então não era algo que partia deles. Mas será que ela precisa chegar nesse nível para comecem a considerar os riscos dessas tecnologia?
Com a evolução da tecnologia elevando os níveis computacionais graças à grande liquidez de dinheiro entrando nesse setor, a cada mês parece que ser o equivalente à anos de desenvolvimento, sempre surgindo novas tecnologias e avanços em nível de hardware pela Nvidia e Software com as empresas melhorando os seus modelos de IA. Essa grande liquidez tem feito com que o acesso aos modelos mais recentes tenha se tornado mais democrático e o poder delas tem aumentado junto com a subida do poder computacional. Com isso, ao mesmo tempo que você hoje pode usar a IA para gerar um foto fofinha, você também poderia utilizar ela para fazer algum ruim... Será mesmo que precisa chegar no nível de uma skynet com consciência ou já podemos ter algum tipo de skynet atualmente, só não percebemos ainda? O poder individual tem crescido muito já que cada acesso à AI é um processamento de um quase especialista na área. Será que o Teste Turing já não foi o nosso primeiro alerta?




Posted Using INLEO
