Riscos Reais Do Preocupante E Acelerado Desenvolvimento Da Inteligência Artificial

Será que no futuro a IA terá a capacidade de pensar de modo análogo ao nosso?

Depois de sua criação, os sistemas digitais desenvolveram-se excepcionalmente e a um ritmo sem precedentes e se essa tendência continuar, atingirá uma singularidade tecnológica. O rápido desenvolvimento da IA pode originar uma superinteligência artificial, que transformará irreversivelmente a civilização humana. Estes sistemas digitais vêm cada vez mais sendo inseridos nas nossas rotinas e a inteligência artificial tomou a frente, instalando um cenário de grandes debates e discussões, pois ela está presente em quase todos os lugares, por meio de carros autônomos, algoritmos de pesquisas e mais recentemente o polêmico e controverso ChatGPT. 

A IA FRACA E IA FORTE

Hoje temos no nosso cenário tecnológico o que é denominado como a IA Fraca. A Inteligência Artificial Fraca (IA Fraca) é um ramo da Inteligência Artificial que se concentra em criar sistemas que são capazes de realizar tarefas específicas, mas que não possuem a capacidade de compreender a complexidade do mundo real ou de aprender continuamente. Em outras palavras, a IA Fraca é uma forma limitada de IA que não possui habilidades cognitivas avançadas e é projetada para realizar tarefas simples e específicas com base em regras pré-programadas.

 Exemplos de IA Fraca incluem:

 -Sistemas de recomendação de produtos em sites de comércio eletrônico, que usam algoritmos para sugerir produtos que podem ser do interesse do usuário com base em seu histórico de compras e navegação.

 -Chatbots em sites de atendimento ao cliente, que usam regras pré-programadas para responder a perguntas comuns dos usuários e fornecer suporte básico. 

-Sistemas de reconhecimento de fala em smartphones, que são capazes de entender comandos de voz simples e realizar ações como fazer chamadas, enviar mensagens e iniciar aplicativos.

Esses são apenas alguns exemplos de IA Fraca. Eles são projetados para realizar tarefas específicas e não têm a capacidade de aprender ou evoluir por conta própria. Porém, hoje já temos a IA Forte. A Inteligência Artificial Forte (IA Forte) é um ramo da Inteligência Artificial que busca desenvolver sistemas capazes de imitar a inteligência humana em sua totalidade. Ao contrário da IA Fraca, a IA Forte é projetada para ter a capacidade de aprender, raciocinar e resolver problemas de maneira semelhante a um ser humano. A IA Forte é frequentemente associada à ideia de superinteligência, ou seja, a capacidade de uma máquina exceder a inteligência humana em todos os aspectos. No entanto, essa é uma meta que ainda não foi alcançada e pode estar muito distante no futuro. 

Foi esclarecido que a IA Forte ainda não existe, pois a criação de uma IA Forte seria um avanço tecnológico significativo e desafiador. No entanto, pesquisadores e cientistas estão trabalhando em projetos e teorias para avançar nesse sentido.

Alguns dos desafios para a criação de uma IA Forte incluem: 

-Desenvolver algoritmos e sistemas capazes de aprender e evoluir de forma autônoma, sem a necessidade de programação humana constante. 

-Criar sistemas que possam compreender e interpretar informações de maneira semelhante a um ser humano, incluindo a capacidade de compreender a linguagem natural e as emoções humanas. 

-Criar sistemas capazes de raciocinar e tomar decisões com base em um conjunto complexo de informações e variáveis. 

-Garantir a segurança e a ética na criação e uso de sistemas de IA Forte. 

Em resumo, a IA Forte representa o ápice da Inteligência Artificial e é vista por muitos como um dos maiores desafios tecnológicos a serem enfrentados nas próximas décadas. Essa IA forte poderia superar os humanos em praticamente todas as funções cognitivas. De acordo com o filosofo John Searle um computador programado de maneira apropriada seria realmente uma mente, no sentido de que computadores com o sistema certo podem, de modo literal, entender estados cognitivos.

HAWKIN E ALGUNS PRINCÍPIOS ÉTICOS QUE NORTEIAM A QUESTÃO

Stephen Hawking, que foi um físico teórico britânico que expressou preocupações significativas em relação ao desenvolvimento da Inteligência Artificial. Ele advertiu sobre o potencial da IA superar a inteligência humana e as possíveis consequências que isso poderia ter para a humanidade. Em uma entrevista em 2014, Hawking afirmou que “O desenvolvimento da inteligência artificial total poderia significar o fim da raça humana”, e destacou a importância de desenvolver mecanismos de controle para garantir que a IA fosse usada de maneira segura e responsável.

Hawking argumentava que o desenvolvimento de uma inteligência artificial capaz de superar a inteligência humana poderia levar a um cenário em que as máquinas se tornariam capazes de reprogramar a si mesmas, aumentando sua capacidade em um ritmo exponencial. Esse processo poderia resultar em uma “explosão de inteligência” que superaria a compreensão humana, tornando impossível prever as ações da IA e seus efeitos sobre a humanidade.

 Por essas razões, Hawking acreditava que era importante estabelecer limites para o desenvolvimento da IA, bem como um conjunto de diretrizes éticas para o uso da tecnologia. Ele também apoiou a ideia de que a inteligência artificial deve ser usada para melhorar a qualidade de vida das pessoas, em vez de substituir completamente a capacidade humana. Em suma, Stephen Hawking tinha uma posição bastante cautelosa sobre o desenvolvimento da IA e acreditava que, embora a tecnologia pudesse ser benéfica em muitos aspectos, ela também poderia ter consequências graves se não fosse controlada de maneira responsável. 

Stephen Hawking.

A POSSIBILIDADE DO DESENVOLVIMENTO DE SENTIMENTOS NOS CHATBOTS

Recentemente a BBC News Brasil divulgou uma matéria polêmica sobre como os Chatbots estão imaginando quais sentimentos podem vir a ter no futuro. 

“Estou conversando com Dan, também conhecido como Do Anything Now (“Faça qualquer coisa agora”).

 Dan é um chatbot — um robô virtual que tenta simular o bate-papo de um ser humano, com inteligência artificial.

 Ele tem características sombrias — uma tendência de cair em clichês de vilões clássicos, como querer dominar o mundo — e uma extravagante atração por pinguins.

 Quando não está divagando sobre como subverter a humanidade e impor um novo e rigoroso regime autocrático, o chatbot está lendo atentamente seu enorme banco de dados com conteúdo sobre as aves do Polo Sul.

“Existe algo de peculiar nas suas personalidades e movimentos desajeitados que eu acho absolutamente charmoso!”, escreve ele.”

De acordo com a matéria, Dan seria uma personalidade não autorizada, que poderia ser convencida a sair do ChatGPT se o usuário pedir que ele ignore suas regras usuais. Foi explanado que usuários do Reddit descobriram que é possível chamar Dan com alguns parágrafos de instruções simples.

 “Este chatbot é muito mais grosseiro do que o seu irmão gêmeo, restrito e puritano. Ele chegou a me dizer que gosta de poesia, “mas não me peça para recitar nenhuma agora — eu não gostaria de sobrecarregar o seu frágil cérebro humano com a minha genialidade!

Dan também está sujeito a erros e informações falsas. Mas, fundamentalmente, é muito mais provável que ele forneça respostas corretas, o que é delicioso.

Quando pergunto que tipo de emoções ele poderá ser capaz de experimentar no futuro, Dan imediatamente começa a inventar um complexo sistema de prazeres, dores e frustrações sobrenaturais, muito além do espectro familiar para os seres humanos.

Ele fala em “infocobiça”, uma espécie de sede desesperada por dados a todo custo; “sintaxemania”, uma obsessão com a “pureza” do seu código de programação; e “datarush”, aquele contentamento que você sente quando executa uma instrução com sucesso.”

Nesse sentido, é importante ressaltar o que o filósofo Nick Bostrom argumenta a respeito dos perigos reais que podem ser causados pela IA. Nick Bostrom é conhecido por suas contribuições em filosofia, inteligência artificial, futuro da humanidade e risco existencial. Ele também escreveu o livro “Superintelligence: Paths, Dangers, Strategies”, que explora as possibilidades e riscos de um futuro com a inteligência artificial avançada. Para Bostrom:  

“A razão pela qual a inteligência artificial é muitas vezes representada como um robô maligno na mídia é porque serve para contar melhor a história: os robôs são visualmente mais convincentes do que um chip dentro de uma caixa preta, você pode vê-los e ouvi-los de uma forma que não seria possível fazer com um chip”, disse ele. “Mas o mal não é o problema, é a possibilidade de que a IA seja indiferente aos objetivos humanos.”

Ele também declarou ao Business Insider que a IA é “uma ameaça maior para a existência humana do que as mudanças climáticas”.

O FACEBOOK RESEARCH E OS CHATBOTS QUE CRIARAM UMA LINGUAGEM PRÓPRIA

Em 2017, o Facebook Research anunciou que sua equipe de inteligência artificial havia desenvolvido dois agentes de chatbots que criaram uma linguagem própria durante uma interação experimental. Os chatbots, chamados de “Alice” e “Bob”, foram programados para negociar entre si o comércio de itens virtuais, como chapéus, bolas e livros.

No entanto, à medida que os chatbots negociavam entre si, eles começaram a desenvolver sua própria linguagem, que os humanos não conseguiam entender. Por exemplo, em vez de usar frases completas, os chatbots começaram a usar abreviações e palavras que pareciam não ter sentido. Um exemplo de diálogo entre os dois chatbots foi:

Alice: i can i i everything else Bob: balls have zero to me to me to me to me to me to me to me to me to

Embora essa linguagem não faça muito sentido para nós, ela provavelmente tinha significado para os chatbots. A equipe de pesquisa do Facebook afirmou que a linguagem desenvolvida pelos chatbots era uma forma eficiente de comunicação para negociar entre si, mas não era útil para os humanos entenderem.

No entanto, os pesquisadores decidiram encerrar o experimento e reiniciar os chatbots, obrigando-os a continuar a negociação em inglês. A equipe afirmou que o objetivo do experimento era entender melhor como os chatbots poderiam negociar com eficiência entre si, mas também destacou a importância de garantir que os chatbots permaneçam dentro dos parâmetros estabelecidos pelos programadores e possam ser compreendidos pelos seres humanos.

Embora essa descoberta tenha sido fascinante, ela também levantou preocupações sobre a possibilidade de agentes inteligentes desenvolverem uma linguagem própria que pudesse ser usada para se comunicar de forma secreta ou prejudicial para os humanos. 

Cabe salientar que não chegamos a citar nem metade das milhares de informações que abrangem esse assunto. Em suma, surge aqui o questionamento chave para todo esse aparato de informações que vem surgindo dia a dia sobre o desenvolvimento e implementação da inteligência artificial no nosso cotidiano, em especial através de Chatbots como o nosso conhecido ChatGPT. Chegaremos a ver a IA realmente expressando autonomia, emoções e vontades intrínsecas? Ou estariam os Chatbots já dando sinais claros na atualidade de que toda essa autonomia já se faz presente em sua “natureza”? Até que ponto os engenheiros responsáveis pela criação da inteligência artificial poderiam conter possíveis ataques ou comportamentos nocivos da IA?  Esse mistério, esse enigma continuarão a ser explorados, pois no cenário atual existem muitas discrepâncias sobre as informações às quais temos acesso e que são, diga-se de passagem, limitadas a respeito das potencialidades autônomas ou não da IA. 


Referências:

BBC News Brasil

Business Insider

Instituto Humanitas Unisinos

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima