?>

Opinião

Nada Vem do Nada: Futuro com Inteligência Artificial

Nada Vem do Nada: Futuro com Inteligência Artificial

Artigo por RED
20/07/2023 05:30 • Atualizado em 21/07/2023 11:35
Nada Vem do Nada: Futuro com Inteligência Artificial

De FERNANDO NOGUEIRA DA COSTA*

Não é possível identificar um ponto específico no tempo ou um lugar no espaço, onde o conhecimento humano tenha começado. A linha de partida inicial no conhecimento é… desconhecida!

Ele começou com a capacidade dos seres humanos de observar e interagir com o mundo ao seu redor, inclusive com seus pares. Desde os primórdios de sua existência, para sobreviverem, eles buscaram entender o ambiente onde vivem, compreender os fenômenos naturais, desenvolver estratégias para resistir às forças adversas da natureza e de outros animais e se adaptar às mudanças do meio-ambiente. O conhecimento coletivo foi desenvolvido e acumulado, gradualmente, por seguidas gerações.

Possivelmente, a busca pelo conhecimento começou com a curiosidade inata e o desejo de compreender o mundo e encontrar explicações para os eventos observados. Os seres humanos evoluíram com o desenvolvimento da linguagem, de capacidades cognitivas avançadas, inclusive a de transmitir conhecimento até hoje, quando começam a usar o apoio da Inteligência Artificial (IA).

Esse desenvolvimento humano ocorreu com a observação empírica, o raciocínio lógico, a experimentação, a reflexão filosófica e a investigação científica. Ao longo da história, diferentes civilizações e culturas contribuíram para a acumulação de conhecimento, transmitindo descobertas e avanços para as gerações seguintes

A última edição da série de reportagens publicadas pelo New York Times e divulgadas no Brasil pela Folha de S.Paulo a partir de 26 de junho de 2023, intitulada Inteligência Artificia (IA): Modo de Usar, analisa o esperado no futuro com a inteligência artificial.

Um olhar para o futuro dos chatbots e outras tecnologias de IA aponta uma nova onda de sistemas multimodais ser capaz de misturar imagens, sons e vídeos, além de texto, de maneira inédita. Espera-se oportunidades e reviravoltas quando a inteligência artificial for adquirindo mais habilidades.

As IAs generativas já são capazes de responder a perguntas, escrever poesia, gerar código de computador e participar de conversas. Como sugere o nome “chatbot” um bate-papo, elas estão sendo lançadas inicialmente em formatos de conversação, tal como no ChatGPT e no Bing.

Todas as big techs têm planos de incorporar essas tecnologias de IA a seus produtos. A OpenAI oferece uma API, ou Interface de Programação de Aplicações, de modo outras empresas de tecnologia poderem usar para ligar o GPT-4 a seus apps e produtos. Ampliarão as capacidades do ChatGPT.

A IA vai aumentar muito a produtividade de alguns profissionais, por exemplo, médicos, advogados e programadores de computação. Espera-se outros profissionais serem substituídos por obsolescência técnica.

O desemprego tecnológico vai afetar tarefas repetitivas, genéricas e seguidoras de uma fórmula constante. Isso pode libertar quem não se dá bem com essas tarefas, mas representa um risco às pessoas acostumadas apenas a repetir as mesmas ações.

Algumas tarefas realizadas por humanos podem desaparecer como é o caso da transcrição de áudios e da tradução de textos. No campo jurídico, o GPT-4 já é hábil o suficiente para atender às consultas de leis ou julgamentos. A contabilidade também poderá ser muito facilitada com IA.

Empresas como OpenAI, Google e Meta estão construindo sistemas capazes de gerar imagens e vídeos, instantaneamente, bastando para isso descrever o desejado de ver. Outras companhias estão construindo robôs para usar sites e aplicativos de software como um humano os usa.

Antes dos humanos compreenderem plenamente como esses sistemas vão afetar o mundo, eles vão ficar ainda mais poderosos. O plano de companhias como OpenAI e DeepMind, laboratório pertencente à empresa-mãe do Google, é construir a chamada de Inteligência Artificial Geral (IAG), ou seja, uma máquina capaz de fazer qualquer coisa possível de o cérebro humano realizar.

Para uma IA tornar-se uma IAG, ela precisará entender as características gerais do mundo físico. Não se sabe ainda se sistemas conseguirão emular a extensão e amplitude do raciocínio e bom senso humano ao usar apenas os métodos resultantes em tecnologias como o GPT-4. Provavelmente serão necessários novos avanços.

Contra os ludismo (destruidor de máquinas), em busca de impedir isso acontecer, a sabedoria será criar tecnologias apenas para melhorar a vida humana. O temor típico do animal humano está em um cenário tenebroso onde suas criações nem sempre farão o desejado. Haveria o risco de os robôs seguir instruções próprias de maneiras imprevisíveis, com consequências potencialmente nefastas. “Alinhamento” seria garantir os sistemas de IA estarem alinhados com valores e objetivos humanos.

Inicialmente, o sistema poderia ser persuadido a sugerir, por exemplo, como comprar armas de fogo ilegais online e a descrever maneiras de produzir substâncias perigosas a partir de artigos domésticos. Depois de ser modificado pela OpenAI, o sistema já não sugere essas coisas.

No entanto, é impossível eliminar todas potenciais utilizações nefastas. Como esses sistemas aprendem com dados, eles desenvolvem habilidades imprevistas por seus criadores. É difícil saber o possível de dar errado no futuro quando quase todas as pessoas começarem a usá-lo, seja para o bem, seja para o mal.

Quando se cria um sistema de IA, seus criadores são incapazes de caracterizar completamente todas suas capacidades e todos seus problemas de segurança. Os métodos básicos usados para construir esses sistemas são amplamente entendidos. Mas é possível outras empresas, outros países, outros laboratórios de pesquisa serem menos cuidadosos e mal-intencionados.

Para controlar uma tecnologia de IA perigosa será necessária uma supervisão regulatória de longo alcance internacional. Porém, as instituições governamentais existentes hoje não estão prestes a fazer isso com a rapidez necessária.

Muitos adeptos do ludismo exortaram os laboratórios de inteligência artificial a pausar o desenvolvimento dos sistemas mais avançados. Denunciaram, em carta aberta, as ferramentas de IA por criar “riscos profundos para a sociedade e a humanidade”.

De acordo com a carta, os desenvolvedores de IA estão “imersos em uma corrida descontrolada para desenvolver e lançar mentes digitais mais poderosas sem ninguém, sequer seus criadores, serem capazes de entender, prever ou controlar confiavelmente”.

Os perigos, no curto prazo, seria a disseminação de desinformação e o risco de as pessoas virem a confiar nos sistemas de IA para pedir conselhos médicos e emocionais equivocados ou prejudiciais. Outros críticos, autodenominados de “racionalistas ou altruístas efetivos”, fazem parte de uma comunidade online contra a IA ao pressupor ela destruir a humanidade. Ou destruirá os podres poderes de manipulação mental?

Essa mentalidade reacionária – em reação ao avanço da história – está refletida na carta aberta. Faz lembrar o computador HAL (letras anteriores de IBM), no filme de 1968 de Stanley Kubrick – 2001, Uma Odisseia no Espaço –, com a percepção do risco de ser destruído por seus criadores humanos, reage contra o “assassinato”. O roteiro reflete um temor contra a novidade tecnológica da época: os computadores em grande escala.

Portanto, o desafio está no “alinhamento”, isto é, as tentativas de pesquisadores de IA e especialistas em ética de assegurarem as inteligências artificiais atuarem em conformidade com os valores e as metas dos melhores seres humanos. Não se submeterem aos piores, inclusive os negacionistas da ciência.

Como modelo de linguagem de IA, desenvolvido pela OpenAI, o ChatGPT não tem a capacidade de prever o futuro ou fazer declarações sobre o que acontecerá com certeza. No entanto, compartilha algumas perspectivas comuns sobre o futuro da IA.

Entre as quais, destaca a ética e governança: quando a IA se tornar mais avançada e amplamente adotada, também surgirão preocupações em relação à ética, privacidade, segurança e equidade. Será importante desenvolver frameworks de governança e regulamentações adequadas para garantir o uso responsável da IA e evitar impactos negativos.

Ao invés de substituir completamente os humanos, é provável a IA ser usada cada vez mais para colaborar com as pessoas em diferentes capacidades. Ela auxiliará em tarefas complexas, fornecerá insights e apoio à tomada de decisões, permitindo os humanos se concentrarem em aspectos mais criativos e estratégicos do trabalho.

Porém, o futuro da IA será influenciado por uma variedade de fatores imprevisíveis. Seu desenvolvimento ético e responsável será essencial.


*Professor Titular do Instituto de Economia da UNICAMP. Ex vice-presidente da Caixa Econômica Federal (2003-2007).

Imagem em Pixabay.

As opiniões emitidas nos artigos expressam o pensamento de seus autores e não necessariamente a posição editorial da Rede Estação Democracia.

Toque novamente para sair.