{"id":29885,"date":"2024-01-27T12:13:04","date_gmt":"2024-01-27T17:13:04","guid":{"rendered":"https:\/\/revistamar.com\/?p=29885"},"modified":"2024-02-13T10:55:18","modified_gmt":"2024-02-13T15:55:18","slug":"peridos-e-desafios-da-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/revistamar.com\/conhecimento\/tecnologia\/peridos-e-desafios-da-inteligencia-artificial\/","title":{"rendered":"Peridos e desafios da Intelig\u00eancia Artif\u00edcial"},"content":{"rendered":"

\"inteligencia<\/p>\n

 <\/p>\n

Os algoritmos de intelig\u00eancia artificial atingir\u00e3o em breve um ponto r\u00e1pido de autoaperfei\u00e7oamento que amea\u00e7a a nossa capacidade de os controlar e representa um grande risco potencial para a humanidade.<\/strong><\/p>\n

\u201cA ideia de que esta coisa pode realmente tornar-se mais inteligente do que as pessoas… eu achava que estava muito longe… obviamente, j\u00e1 n\u00e3o penso assim\u201d, disse Geoffrey Hinton, um dos principais cientistas de intelig\u00eancia artificial da Google, tamb\u00e9m conhecido como \u201co padrinho da IA\u201d, depois de se ter demitido do seu emprego em abril para poder alertar para os perigos desta tecnologia.<\/p>\n

Um inqu\u00e9rito realizado em 2023 a especialistas em IA revelou que 36% receiam que o desenvolvimento da IA possa resultar numa \u201ccat\u00e1strofe de n\u00edvel nuclear\u201d. Quase 28.000 pessoas assinaram uma carta aberta escrita pelo Future of Life Institute, incluindo Steve Wozniak, Elon Musk, os directores executivos de v\u00e1rias empresas de IA e muitos outros tecn\u00f3logos proeminentes, pedindo uma pausa de seis meses ou uma morat\u00f3ria no desenvolvimento de novas IA avan\u00e7adas.<\/p>\n

Mas porque est\u00e3o todos t\u00e3o preocupados? Em suma: o desenvolvimento da IA est\u00e1 a ser demasiado r\u00e1pido.
\nA quest\u00e3o principal \u00e9 a melhoria profundamente r\u00e1pida da conversa\u00e7\u00e3o entre a nova colheita de \u201cchatbots\u201d avan\u00e7ados, ou o que tecnicamente se designa por \u201cmodelos de linguagem de grande dimens\u00e3o\u201d (LLM). Com a pr\u00f3xima \u201cexplos\u00e3o da IA\u201d, teremos provavelmente apenas uma oportunidade para acertar. Se o fizermos mal, podemos n\u00e3o viver para contar a hist\u00f3ria. Isto n\u00e3o \u00e9 uma hip\u00e9rbole.<\/p>\n

Esta acelera\u00e7\u00e3o r\u00e1pida promete resultar em breve numa \u201cintelig\u00eancia geral artificial\u201d (AGI) e, quando isso acontecer, a IA ser\u00e1 capaz de se aperfei\u00e7oar sem interven\u00e7\u00e3o humana. F\u00e1-lo-\u00e1 da mesma forma que, por exemplo, a IA AlphaZero da Google aprendeu a jogar xadrez melhor do que os melhores jogadores humanos ou outros jogadores de xadrez de IA em apenas nove horas desde que foi ligada pela primeira vez. Conseguiu este feito jogando-se a si pr\u00f3pria milh\u00f5es de vezes.<\/p>\n

Uma equipa de investigadores da Microsoft que analisou o GPT-4 da OpenAI, que considero ser o melhor dos novos chatbots avan\u00e7ados atualmente dispon\u00edveis, afirmou que tinha \u201cfa\u00edscas de intelig\u00eancia geral avan\u00e7ada\u201d num novo artigo de pr\u00e9-impress\u00e3o.<\/p>\n

Ao testar o GPT-4, este teve um desempenho melhor do que 90% dos participantes humanos no Exame Uniforme da Ordem dos Advogados, um teste normalizado utilizado para certificar advogados para exercerem a profiss\u00e3o em muitos estados. Este valor foi superior aos apenas 10% da vers\u00e3o anterior GPT-3.5, que foi treinada num conjunto de dados mais pequeno. Os investigadores encontraram melhorias semelhantes em dezenas de outros testes normalizados.<\/p>\n

A maior parte destes testes s\u00e3o testes de racioc\u00ednio. Esta \u00e9 a principal raz\u00e3o pela qual Bubeck e a sua equipa conclu\u00edram que o GPT-4 \u201cpode razoavelmente ser visto como uma vers\u00e3o inicial (mas ainda incompleta) de um sistema de intelig\u00eancia geral artificial (AGI)\u201d.<\/p>\n

Este ritmo de mudan\u00e7a \u00e9 a raz\u00e3o pela qual Hinton disse ao New York Times: \u201cVejam como era h\u00e1 cinco anos e como \u00e9 agora. Pegue na diferen\u00e7a e propague-a para a frente. Isso \u00e9 assustador\u201d. Numa audi\u00e7\u00e3o no Senado, em meados de maio, sobre o potencial da IA, Sam Altman, diretor da OpenAI, considerou a regulamenta\u00e7\u00e3o \u201ccrucial\u201d.<\/p>\n

Quando a IA for capaz de se aperfei\u00e7oar a si pr\u00f3pria, o que pode n\u00e3o estar a mais do que alguns anos de dist\u00e2ncia, e pode de facto j\u00e1 estar aqui, n\u00e3o temos forma de saber o que a IA far\u00e1 ou como a poderemos controlar. Isto porque a IA superinteligente (que, por defini\u00e7\u00e3o, pode ultrapassar os seres humanos num vasto leque de actividades) ser\u00e1 – e \u00e9 isto que mais me preocupa – capaz de fazer c\u00edrculos \u00e0 volta dos programadores e de qualquer outro ser humano, manipulando-os para que fa\u00e7am a sua vontade; ter\u00e1 tamb\u00e9m a capacidade de agir no mundo virtual atrav\u00e9s das suas liga\u00e7\u00f5es electr\u00f3nicas e de agir no mundo f\u00edsico atrav\u00e9s de corpos de rob\u00f4s.<\/p>\n

 <\/p>\n

\"inteligencia<\/p>\n

 <\/p>\n

Isto \u00e9 conhecido como o \u201cproblema do controlo\u201d ou o \u201cproblema do alinhamento\u201d (ver o livro do fil\u00f3sofo Nick Bostrom, Superintelligence, para uma boa vis\u00e3o geral) e tem sido estudado e discutido por fil\u00f3sofos e cientistas, como Bostrom, Seth Baum e Eliezer Yudkowsky, h\u00e1 d\u00e9cadas.<\/p>\n

Por que raz\u00e3o esperar\u00edamos que um beb\u00e9 rec\u00e9m-nascido vencesse um grande mestre de xadrez? N\u00e3o o far\u00edamos. Da mesma forma, por que raz\u00e3o esperar\u00edamos ser capazes de controlar sistemas de IA superinteligentes? (N\u00e3o, n\u00e3o poderemos simplesmente carregar no bot\u00e3o de desligar, porque a IA superinteligente ter\u00e1 pensado em todas as formas poss\u00edveis de o fazer e tomado medidas para evitar ser desligada).<\/p>\n

Eis outra forma de ver a quest\u00e3o: uma IA superinteligente ser\u00e1 capaz de fazer em cerca de um segundo o que uma equipa de 100 engenheiros de software humanos demoraria um ano ou mais a fazer. Ou ent\u00e3o, se escolhermos uma tarefa qualquer, como a conce\u00e7\u00e3o de um novo avi\u00e3o avan\u00e7ado ou de um sistema de armas, a IA superinteligente poder\u00e1 realiz\u00e1-la em cerca de um segundo.<\/p>\n

Quando os sistemas de IA forem incorporados nos rob\u00f4s, estes ser\u00e3o capazes de atuar no mundo real, e n\u00e3o apenas no mundo virtual (eletr\u00f3nico), com o mesmo grau de superintelig\u00eancia e, naturalmente, ser\u00e3o capazes de se reproduzir e melhorar a si pr\u00f3prios a um ritmo sobre-humano.<\/p>\n

Quaisquer defesas ou prote\u00e7\u00f5es que tentemos construir nestes \u201cdeuses\u201d da IA, no seu caminho para a divindade, ser\u00e3o antecipadas e neutralizadas com facilidade pela IA quando esta atingir o estatuto de superintelig\u00eancia. Isto \u00e9 o que significa ser superinteligente.<\/p>\n

N\u00e3o seremos capazes de os controlar porque tudo o que pensarmos, eles j\u00e1 ter\u00e3o pensado, um milh\u00e3o de vezes mais depressa do que n\u00f3s. Quaisquer defesas que tenhamos constru\u00eddo ser\u00e3o desfeitas, tal como Gulliver a libertar-se dos pequenos fios que os liliputianos usaram para o tentar conter.<\/p>\n

Alguns argumentam que estes LLMs s\u00e3o apenas m\u00e1quinas de automatiza\u00e7\u00e3o sem consci\u00eancia, o que implica que, se n\u00e3o tiverem consci\u00eancia, t\u00eam menos hip\u00f3teses de se libertarem da sua programa\u00e7\u00e3o. Mesmo que estes modelos de linguagem, agora ou no futuro, n\u00e3o sejam conscientes, isso n\u00e3o importa. Para que conste, concordo que \u00e9 improv\u00e1vel que tenham qualquer consci\u00eancia real neste momento – embora esteja aberto a novos factos \u00e0 medida que v\u00e3o surgindo.<\/p>\n

Seja como for, uma bomba nuclear pode matar milh\u00f5es de pessoas sem qualquer tipo de consci\u00eancia. Da mesma forma, a IA pode matar milh\u00f5es sem consci\u00eancia, de in\u00fameras formas, incluindo a utiliza\u00e7\u00e3o potencial de bombas nucleares, quer diretamente (muito menos prov\u00e1vel), quer atrav\u00e9s de intermedi\u00e1rios humanos manipulados (mais prov\u00e1vel).<\/p>\n

Assim, os debates sobre a consci\u00eancia e a IA n\u00e3o t\u00eam muito a ver com os debates sobre a seguran\u00e7a da IA.
\nSim, os modelos lingu\u00edsticos baseados no GPT-4 e muitos outros modelos j\u00e1 est\u00e3o a circular amplamente. Mas a morat\u00f3ria que est\u00e1 a ser pedida \u00e9 para parar o desenvolvimento de quaisquer novos modelos mais poderosos do que o 4.0 – e isto pode ser imposto, com for\u00e7a, se necess\u00e1rio. O treino destes modelos mais potentes requer enormes parques de servidores e energia. Podem ser encerrados.<\/p>\n

A minha b\u00fassola \u00e9tica diz-me que \u00e9 muito pouco sensato criar estes sistemas quando j\u00e1 sabemos que n\u00e3o os vamos conseguir controlar, mesmo num futuro relativamente pr\u00f3ximo. O discernimento consiste em saber quando nos devemos afastar do limite. Agora \u00e9 essa altura. N\u00e3o devemos abrir a caixa de Pandora mais do que ela j\u00e1 foi aberta.<\/p>\n

Nuno N\u00fancio<\/p>\n","protected":false},"excerpt":{"rendered":"

  Os algoritmos de intelig\u00eancia artificial atingir\u00e3o em breve um ponto r\u00e1pido de autoaperfei\u00e7oamento que amea\u00e7a a nossa capacidade de os controlar e representa um grande risco potencial para a humanidade. \u201cA ideia de que esta coisa pode realmente tornar-se mais inteligente do que as pessoas… eu achava que estava muito longe… obviamente, j\u00e1 n\u00e3o …<\/p>\n","protected":false},"author":1,"featured_media":29887,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[25],"tags":[],"jetpack_sharing_enabled":true,"jetpack_featured_media_url":"https:\/\/revistamar.com\/wp-content\/uploads\/2024\/01\/inteligencia-artificial-1.jpg","_links":{"self":[{"href":"https:\/\/revistamar.com\/wp-json\/wp\/v2\/posts\/29885"}],"collection":[{"href":"https:\/\/revistamar.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/revistamar.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/revistamar.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/revistamar.com\/wp-json\/wp\/v2\/comments?post=29885"}],"version-history":[{"count":2,"href":"https:\/\/revistamar.com\/wp-json\/wp\/v2\/posts\/29885\/revisions"}],"predecessor-version":[{"id":29998,"href":"https:\/\/revistamar.com\/wp-json\/wp\/v2\/posts\/29885\/revisions\/29998"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/revistamar.com\/wp-json\/wp\/v2\/media\/29887"}],"wp:attachment":[{"href":"https:\/\/revistamar.com\/wp-json\/wp\/v2\/media?parent=29885"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/revistamar.com\/wp-json\/wp\/v2\/categories?post=29885"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/revistamar.com\/wp-json\/wp\/v2\/tags?post=29885"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}