Inteligência artificial: um cenário pós-apocalíptico está próximo?
por: Zhandra Flores
Publicados:
A descolagem destas tecnologias colocou a humanidade perante uma encruzilhada ética e tecnopolítica sem precedentes.
A massificação da inteligência artificial (IA) tem sido acompanhada de muito entusiasmo, mas também de muitas dúvidas e receios sobre os efeitos desta tecnologia no quotidiano das pessoas.
Os mais optimistas sustentam que serão acelerados processos nos quais hoje é necessário investir muito tempo, que estará preparado o terreno para a tomada de decisões mais objectivas e que a sua utilização intensiva poderá ajudar a encontrar respostas a grandes questões que têm clamado em busca de soluções durante décadas ou séculos, incluindo a cura de doenças mortais ou de problemas científicos altamente complexos.
Embora seja verdade que a IA poderia oferecer todas estas possibilidades, também é verdade que o seu surgimento alimentou o debate sobre questões como a recolha massiva de dados de utilizadores da Internet sem o seu consentimento , a reprodução de preconceitos e preconceitos históricos com motivação política e tem contribuiu para a desvalorização do espírito crítico, bem como para a falsificação da verdade sobre acontecimentos polêmicos.
Ainda não é possível avaliar o real alcance destas transformações nas sociedades, mas já foi demonstrado que afectaram questões centrais como as relações interpessoais, o mercado de trabalho e os processos de ensino-aprendizagem, e espera-se que isso seja ainda maior nos próximos anos.
Assim, nas profissões em que até agora se assumia a primazia humana absoluta, como o jornalismo ou a escrita com fins literários, estão inevitavelmente a ser permeadas por estas ferramentas, enquanto os autores e proprietários dos meios de comunicação social são forçados, no mínimo, a jogar num tabuleiro com outras regras , que poderiam até colocar em suspense o que até agora tem sido um modelo corporativo lucrativo.
Por outro lado, nesta equação, os estados nacionais, as entidades multilaterais e as universidades foram relegados em comparação com os gigantes tecnológicos , que hoje controlam os sistemas baseados em IA fora de qualquer regulação ou contrapeso.
Três etapas: onde estamos?
Os especialistas identificaram três estágios no desenvolvimento da IA , cujas diferenças são definidas pela capacidade de imitar – ou superar – a cognição humana. A primeira, conhecida como ANI, na sigla em inglês, faz parte da vida de milhões de pessoas há mais de uma década e meia através dos seus smartphones, motores de busca na Internet, jogos online e assistentes eletrónicos como Siri ou Alexa.
Em termos simples, são robôs especializados em uma tarefa , capazes de realizar essas tarefas melhor do que um ser humano. Estas IA suportam questões tão variadas como algoritmos de pesquisa do Google, listas de reprodução de áudio e vídeo personalizadas em diversas aplicações ou geolocalização através de GPS.
Apesar das aparentes diferenças, ‘chatbots’ como o ChatGPT da OpenIA, o Google Brain ou o Copilot da Microsoft também fazem parte desta lista. As respostas que oferecem aos usuários baseiam-se numa análise literal da informação que circula na Internet sobre os temas, embora de acordo com os limites impostos pelos seus desenvolvedores; Ou seja, não conseguem pensar nem tomar decisões autônomas .
É justamente este aspecto que, para os especialistas, define o limite entre ANI ou IA “fraca” com o próximo nível: IA geral (AGI) ou IA “forte”, onde as máquinas adquiririam a capacidade de cognição dos seres humanos e, pelo menos em teoria, eles seriam capazes de realizar qualquer tarefa .
Esse tempo pode parecer distante, mas a verdade é que está mais próximo do que parece e aplicações como o ChatGPT tornaram transparente essa proximidade, revelando-se como uma espécie de interface de transição entre a ANI e a AGI.
Não é o pior futuro possível. A terceira fase, que só existe como prefiguração, é a chamada superinteligência artificial (ASI), na qual as máquinas seriam capazes não apenas de realizar qualquer tarefa humana, mas poderiam pensar por si mesmas ; Ou seja, a IA superaria até mesmo a mais brilhante de todas as mentes humanas.
Já uma aliança entre o Instituto de Tecnologia de Massachusetts (MIT), a Universidade da Califórnia (EUA) e a empresa de tecnologia Aizip Inc. tornou possível a criação de uma IA capaz de gerar outros modelos de inteligência artificial sem a intervenção de seres humanos. humanos, o que abriu outra porta perturbadora: é possível que os objetos desenvolvam mecanismos de aprendizagem autônomos que os tornem mais inteligentes.
Um painel de cientistas da computação entrevistados pela BBC Mundo no ano passado concordou que, embora os sistemas baseados em IA levem décadas para se desenvolverem até o estado atual, a transição para a superinteligência artificial ou ASI será alcançada muito mais rapidamente e será superada com o crescimento da cognição humana . inclusive em assuntos tão específicos como criatividade ou habilidades sociais.
"É algo com o qual temos que ter muito cuidado e temos que ser extremamente proativos em termos de sua governança. Por quê? A limitação entre os humanos é o quão escalável é a nossa inteligência. Para ser engenheiro é preciso estudar muito, para “Ser enfermeiro, ser advogado leva muito tempo. O problema da IA generalizada é que ela é imediatamente escalável”, disse Carlos Ignacio Gutiérrez, vinculado ao Instituto Future of Live.
Sobre este tema, o magnata sul-africano Elon Musk considerou que a IA “representa uma das maiores ameaças” para a humanidade. “Pela primeira vez estamos numa situação em que temos algo que será muito mais inteligente do que o ser humano mais inteligente”, disse o empresário numa reunião sobre segurança da IA realizada no Reino Unido no início de novembro passado.
Da mesma forma, Musk previu que a IA será capaz de superar a cognição humana em apenas cinco anos . “Para mim, não está claro se podemos controlar tal coisa, mas penso que podemos esperar guiá-la numa direção que seja benéfica para a humanidade”, observou.
Perigos em formação
Em março de 2023, cerca de 1.000 especialistas e proprietários de grandes empresas de tecnologia pediram publicamente a todos os desenvolvedores de IA que suspendessem imediatamente "por pelo menos seis meses" o "treinamento de sistemas de IA mais poderosos que o GPT-4", a base do aprendizado do ChatGPT.
“Os sistemas de IA com inteligência humano-competitiva podem representar sérios riscos para a sociedade e a humanidade , como demonstrado por extensas pesquisas e reconhecido pelos principais laboratórios de IA”, diz parte da carta, que foi assinada por pesos pesados da indústria como Elon Musk, Steve Wozniak e Bill Gates.
Esta não é uma posição unânime . O próprio Gates duvida da eficácia destes atrasos no desenvolvimento geral da IA e insta antes os governos e as empresas a enfrentarem os desafios.
"Não creio que pedir a um grupo específico que faça uma pausa resolva os desafios. É evidente que há enormes benefícios nestas coisas (…). O que temos de fazer é identificar as áreas mais complicadas", alegou o fundador da Microsoft numa entrevista concedida. para a Reuters em abril de 2023.
O tema também foi abordado na edição mais recente do Fórum de Davos , onde boa parte da elite política e económica global se reúne anualmente. Para a ocasião, foi convidado Sam Altman, CEO da OpenIA, que aproveitou o palco para promover os benefícios da IA e descartar os riscos e alertas que circulam nos meios acadêmicos e na opinião pública.
https://actualidad.rt.com/actualidad/499066-inteligencia-artificial-cerca-escenario-postapocaliptico