Peridos e desafios da Inteligência Artifícial
Tecnologia

Peridos e desafios da Inteligência Artifícial

inteligencia artificial

 

Os algoritmos de inteligência artificial atingirão em breve um ponto rápido de autoaperfeiçoamento que ameaça a nossa capacidade de os controlar e representa um grande risco potencial para a humanidade.

“A ideia de que esta coisa pode realmente tornar-se mais inteligente do que as pessoas… eu achava que estava muito longe… obviamente, já não penso assim”, disse Geoffrey Hinton, um dos principais cientistas de inteligência artificial da Google, também conhecido como “o padrinho da IA”, depois de se ter demitido do seu emprego em abril para poder alertar para os perigos desta tecnologia.

Um inquérito realizado em 2023 a especialistas em IA revelou que 36% receiam que o desenvolvimento da IA possa resultar numa “catástrofe de nível nuclear”. Quase 28.000 pessoas assinaram uma carta aberta escrita pelo Future of Life Institute, incluindo Steve Wozniak, Elon Musk, os directores executivos de várias empresas de IA e muitos outros tecnólogos proeminentes, pedindo uma pausa de seis meses ou uma moratória no desenvolvimento de novas IA avançadas.

Mas porque estão todos tão preocupados? Em suma: o desenvolvimento da IA está a ser demasiado rápido.
A questão principal é a melhoria profundamente rápida da conversação entre a nova colheita de “chatbots” avançados, ou o que tecnicamente se designa por “modelos de linguagem de grande dimensão” (LLM). Com a próxima “explosão da IA”, teremos provavelmente apenas uma oportunidade para acertar. Se o fizermos mal, podemos não viver para contar a história. Isto não é uma hipérbole.

Esta aceleração rápida promete resultar em breve numa “inteligência geral artificial” (AGI) e, quando isso acontecer, a IA será capaz de se aperfeiçoar sem intervenção humana. Fá-lo-á da mesma forma que, por exemplo, a IA AlphaZero da Google aprendeu a jogar xadrez melhor do que os melhores jogadores humanos ou outros jogadores de xadrez de IA em apenas nove horas desde que foi ligada pela primeira vez. Conseguiu este feito jogando-se a si própria milhões de vezes.

Uma equipa de investigadores da Microsoft que analisou o GPT-4 da OpenAI, que considero ser o melhor dos novos chatbots avançados atualmente disponíveis, afirmou que tinha “faíscas de inteligência geral avançada” num novo artigo de pré-impressão.

Ao testar o GPT-4, este teve um desempenho melhor do que 90% dos participantes humanos no Exame Uniforme da Ordem dos Advogados, um teste normalizado utilizado para certificar advogados para exercerem a profissão em muitos estados. Este valor foi superior aos apenas 10% da versão anterior GPT-3.5, que foi treinada num conjunto de dados mais pequeno. Os investigadores encontraram melhorias semelhantes em dezenas de outros testes normalizados.

A maior parte destes testes são testes de raciocínio. Esta é a principal razão pela qual Bubeck e a sua equipa concluíram que o GPT-4 “pode razoavelmente ser visto como uma versão inicial (mas ainda incompleta) de um sistema de inteligência geral artificial (AGI)”.

Este ritmo de mudança é a razão pela qual Hinton disse ao New York Times: “Vejam como era há cinco anos e como é agora. Pegue na diferença e propague-a para a frente. Isso é assustador”. Numa audição no Senado, em meados de maio, sobre o potencial da IA, Sam Altman, diretor da OpenAI, considerou a regulamentação “crucial”.

Quando a IA for capaz de se aperfeiçoar a si própria, o que pode não estar a mais do que alguns anos de distância, e pode de facto já estar aqui, não temos forma de saber o que a IA fará ou como a poderemos controlar. Isto porque a IA superinteligente (que, por definição, pode ultrapassar os seres humanos num vasto leque de actividades) será – e é isto que mais me preocupa – capaz de fazer círculos à volta dos programadores e de qualquer outro ser humano, manipulando-os para que façam a sua vontade; terá também a capacidade de agir no mundo virtual através das suas ligações electrónicas e de agir no mundo físico através de corpos de robôs.

 

inteligencia artificial

 

Isto é conhecido como o “problema do controlo” ou o “problema do alinhamento” (ver o livro do filósofo Nick Bostrom, Superintelligence, para uma boa visão geral) e tem sido estudado e discutido por filósofos e cientistas, como Bostrom, Seth Baum e Eliezer Yudkowsky, há décadas.

Por que razão esperaríamos que um bebé recém-nascido vencesse um grande mestre de xadrez? Não o faríamos. Da mesma forma, por que razão esperaríamos ser capazes de controlar sistemas de IA superinteligentes? (Não, não poderemos simplesmente carregar no botão de desligar, porque a IA superinteligente terá pensado em todas as formas possíveis de o fazer e tomado medidas para evitar ser desligada).

Eis outra forma de ver a questão: uma IA superinteligente será capaz de fazer em cerca de um segundo o que uma equipa de 100 engenheiros de software humanos demoraria um ano ou mais a fazer. Ou então, se escolhermos uma tarefa qualquer, como a conceção de um novo avião avançado ou de um sistema de armas, a IA superinteligente poderá realizá-la em cerca de um segundo.

Quando os sistemas de IA forem incorporados nos robôs, estes serão capazes de atuar no mundo real, e não apenas no mundo virtual (eletrónico), com o mesmo grau de superinteligência e, naturalmente, serão capazes de se reproduzir e melhorar a si próprios a um ritmo sobre-humano.

Quaisquer defesas ou proteções que tentemos construir nestes “deuses” da IA, no seu caminho para a divindade, serão antecipadas e neutralizadas com facilidade pela IA quando esta atingir o estatuto de superinteligência. Isto é o que significa ser superinteligente.

Não seremos capazes de os controlar porque tudo o que pensarmos, eles já terão pensado, um milhão de vezes mais depressa do que nós. Quaisquer defesas que tenhamos construído serão desfeitas, tal como Gulliver a libertar-se dos pequenos fios que os liliputianos usaram para o tentar conter.

Alguns argumentam que estes LLMs são apenas máquinas de automatização sem consciência, o que implica que, se não tiverem consciência, têm menos hipóteses de se libertarem da sua programação. Mesmo que estes modelos de linguagem, agora ou no futuro, não sejam conscientes, isso não importa. Para que conste, concordo que é improvável que tenham qualquer consciência real neste momento – embora esteja aberto a novos factos à medida que vão surgindo.

Seja como for, uma bomba nuclear pode matar milhões de pessoas sem qualquer tipo de consciência. Da mesma forma, a IA pode matar milhões sem consciência, de inúmeras formas, incluindo a utilização potencial de bombas nucleares, quer diretamente (muito menos provável), quer através de intermediários humanos manipulados (mais provável).

Assim, os debates sobre a consciência e a IA não têm muito a ver com os debates sobre a segurança da IA.
Sim, os modelos linguísticos baseados no GPT-4 e muitos outros modelos já estão a circular amplamente. Mas a moratória que está a ser pedida é para parar o desenvolvimento de quaisquer novos modelos mais poderosos do que o 4.0 – e isto pode ser imposto, com força, se necessário. O treino destes modelos mais potentes requer enormes parques de servidores e energia. Podem ser encerrados.

A minha bússola ética diz-me que é muito pouco sensato criar estes sistemas quando já sabemos que não os vamos conseguir controlar, mesmo num futuro relativamente próximo. O discernimento consiste em saber quando nos devemos afastar do limite. Agora é essa altura. Não devemos abrir a caixa de Pandora mais do que ela já foi aberta.

Nuno Núncio

Redes Sociais - Comentários

Botão Voltar ao Topo