IA: A próxima vaga

“The Coming Wave” (2023) é um livro sobre a atualidade da IA que precisa de ser lido por ter sido escrito por Mustafa Suleyman, o fundador da DeepMind, a empresa adquirida pela Google em 2014 por 400 milhões e que bateria o campeão mundial de Go, Lee Sedol, em 2016. Ou seja, se quiserem compreender como quem lidera as atuais grandes empresas de IA olha para o mundo, como o interpreta, mas acima de tudo como perspetiva o futuro próximo, este livro é uma boa porta de entrada. Isto não quer dizer que tudo o que está aqui deva ser lido como verdade ou como realidade futura plausível. Suleyman não tem pretensões de ser um arauto da IA, antes pelo contrário, todo o seu discurso neste livro assenta numa ideia única, a “contenção da IA”, que deseja, mas que não acredita ser possível. A minha maior crítica assenta na ingenuidade de Suleyman que é baseada numa crença de que a tecnologia apenas evolui num sentido e a sociedade nada contribui para moldar a mesma.

O conceito para o livro de Suleyman surge a partir do conceito de vagas de desenvolvimento societal (agricultura, industrial e pós-industrial) definidas por Alvin Toffler em “The Third Wave” (1980), que sendo um conceito muito atrativo, pela forma como simplifica e dá a compreender o complexo, não deixa de ser uma conceptualização genérica para consumo de massas. Deste modo, Suleyman dedica-se a perspetivar os futuros impactos da IA, a que ainda junta a biologia sintética (ex. CRISPR).

Suleyman parte do momento atual, mas rapidamente abandona o presente para se focar no futuro, próximo ou de longo prazo, consoante os especialistas, assumindo assim uma IA do tipo Geral (AGI), ou seja, capaz de atuar em qualquer área do conhecimento humano. Deste modo, acaba a tecer um conjunto de problemas que poderão surgir com a IA e que rapidamente devastarão a sociedade atual, desembocando numa série de apocalipses. Ou seja, por tudo aquilo de bom que a IA nos poderá trazer — tratamentos de doenças, bem-estar e conforto —, a IA trará também todo o seu contrário nas mãos de quem assim o desejar — criação de novas pandemias, destruição de sociedades e da própria espécie. Para dar conta da componente negativa, uma boa parte de todo o livro é dedicada a compreender como “conter” estas tecnologias, usando a linguagem da guerra fria, de “contenção do comunismo” pelos americanos, começando por um levantamento histórico de contenções falhadas do passado, muitas centradas em superstições e religiões, dedicando depois grande discussão aos problemas atuais da contenção do Nuclear. Apesar de discutir as atuas questões em redor do CRISPR, Suleyman nada diz sobre a clonagem que encheu jornais e livros durante toda a última década do último milénio. Suleyman também nada diz sobre os anteriores invernos da IA. A conclusão de Suleyman é de que a contenção é impossível, de que a regulação de nada adiantará, pelo que deixa um conjunto de princípios no final do livro que gostaria de ver os estados e empresas a implementar para evitar o fim da nossa espécie.

Ao longo de todo o livro, houve uma pergunta que me surgiu, para a qual tentei obter respostas em todo o lado, incluindo o ChatGPT, mas sem sucesso. Nos últimos anos assistimos a desenvolvimentos impressionante no campo da IA, sendo os 2 maiores marcos dessa senda continuamente relembrados, aqui e em todo o lado: o momento em que DeepBlue venceu Kasparov, em 1997, e o momento em que AlphaGo venceu Lee Sedol, em 2016. Sobre o primeiro, passaram já 25 anos, sobre o segundo, 7 anos. É verdade que 2022 viu surgir o ChatGPT e o Dall-E. Mas ainda assim, não consigo deixar de me questionar o seguinte: onde estão os avanços que inteligências desta envergadura nos deveriam ter já oferecido? Repare-se no que nos é dito sobre estas inteligências:

 “A single AI program can write as much text as all of humanity. A single two Gb image-generation model running on your laptop can compress all the pictures on the open web into a tool that generate images with extraordinary creativity and precision — One viable quantum computer could render the world’s entire encryption infrastructure redundant. ….” (p. 120)

Mas, e respostas reais a problemas reais? Suleyman aponta alguns exemplos interessantes:

“AI already helps find new materials and chemical compounds. For example, scientists have used neural networks to produce new configurations of lithium, with big implications for battery technology (…) Until recently biotech relied on endless manual lab work: measuring, pipetting, carefully preparing samples. Now simulations speed up the process of vaccine discovery. Computational tools help automate parts of the design processes, re-creating the “biological circuits” that program complex functions into cells like bacteria that can produce a certain protein (…) In 2020 an AI system sifted through 100 million molecules to create the first machine-learning-derived antibiotic—called halicin—which can potentially help fight tuberculosis. Start-ups like Exscientia, alongside traditional pharmaceutical giants like Sanofi, have made AI a driver of medical research.”

Mas, nada disto é convincente. Se a tecnologia consegue varrer todo o conhecimento humano e sintetizar tudo, porque não consegue resolver problemas com séculos como o Cancro, as Epidemias da Gripe, a própria Tuberculose, etc.? Para mim existem duas grandes respostas a esta falha na IA:

1 – Apesar de esta tecnologia nos ser vendida, aqui por Suleyman, mas por tantos outros, como capaz de gerar conhecimento do zero, na verdade todo o conhecimento novo gerado é baseado no conhecimento previamente produzido por humanos. Mais, todo o conhecimento criado, tem de ser curado por humanos sem o que é inutilizável. Como nós ainda não encontrámos qualquer solução viável para o tratamento destas doenças, a IA não tem conhecimento base a partir do qual possa trabalhar para extrapolar novas abordagens. Na verdade, a IA, de forma aleatória consegue criar variações de conhecimento prévio, mas não consegue dirigir essas variações para buscar verdadeiras alternativas, já que está limitada a processos quantitativos, assentes em métricas, que precisam de conhecimento prévio para laborar.

2 – O corpo humano, as células cancerígenas, não são tabuleiros de xadrez, herméticos, se fossem já teríamos descoberto nós próprios a solução para o problema. São fruto de muito daquilo que sabemos, mas também de muito que ainda desconhecemos. Por isso, quando pedimos à IA para resolver o problema, ela debate-se com o exato mesmo problema que nós, só consegue antecipar o que nós sabemos. É verdade que as suas competências podem estender em muito aquilo que nós conseguimos calcular, e se fosse um problema de análise visual das células, a IA já nos teria ajudado, como tem conseguido ajudar na análise de radiografias. Mas é mais do que isso, para o que precisamos de primeiro conceber um modelo de análise que possamos entregar à IA, e esta possa então usar todo o seu poder de cálculo e síntese para ir mais longe do que nós.

Sobre tudo isto, o livro acaba tornando-se pouco credível porque Suleyman passa todo o tempo a discutir e a misturar evoluções esperadas nos próximos 5 a 10 anos, com evoluções a 30 ou 40 anos, e mesmo a 100 anos. Ora, isso transforma o seu discurso em algo mais do tipo ficção-científica do que algo sério com que nos devamos debater neste momento. Suleyman não só acredita na inevitabilidade da IA como superinteligência, mas também como fase última da nossa espécie, esquecendo não apenas toda a enorme resiliência da espécie humana ao longo de mais de 4 milhões de anos, assim como esquece todas as muitas outras disruptivas tecnologias que foram sendo criadas pelo humano desde o fogo à linguagem, passando pela escrita e pelo método científico para não falar de toda a linhagem industrial da roda ao motor a vapor de onde a IA verdadeiramente emerge.

Deixe um comentário

Design a site like this with WordPress.com
Iniciar