Silicon Valley sufocou o movimento de doom da IA em 2024

Por vários anos, os tecnologistas têm soado o alarme sobre o potencial dos sistemas avançados de IA causarem danos catastróficos à raça humana.

Mas em 2024, esses chamados de alerta foram abafados por uma visão prática e próspera de AI generativa promovida pela indústria de tecnologia - uma visão que também beneficiava seus bolsos.

Aqueles que alertam sobre o risco catastrófico da IA são frequentemente chamados de "doomers da AI", embora não seja um nome de que gostem. Eles estão preocupados que os sistemas de IA tomem decisões para matar pessoas, sejam usados pelos poderosos para oprimir as massas, ou contribuam para a decadência da sociedade de alguma forma.

Em 2023, parecia que estávamos no início de uma era renascentista para a regulamentação da tecnologia. AI doom e AI safety - um assunto mais amplo que pode abranger alucinações, moderação de conteúdo insuficiente e outras formas como a IA pode prejudicar a sociedade - saíram de um tópico de nicho discutido em cafeterias de San Francisco para uma conversa que aparecia na MSNBC, CNN e nas primeiras páginas do New York Times.

Para resumir os alertas emitidos em 2023: Elon Musk e mais de 1.000 tecnologistas e cientistas pediram uma pausa no desenvolvimento de AI, pedindo ao mundo para se preparar para os riscos profundos da tecnologia. Pouco depois, os principais cientistas do OpenAI, Google e outros laboratórios assinaram uma carta aberta dizendo que o risco de a IA causar a extinção humana deveria ser mais considerado. Meses depois, o Presidente Biden assinou uma ordem executiva sobre AI com o objetivo geral de proteger os americanos dos sistemas de IA. Em novembro de 2023, o conselho sem fins lucrativos por trás do principal desenvolvedor de IA do mundo, o OpenAI, demitiu Sam Altman, alegando que seu CEO tinha uma reputação de mentir e não podia ser confiável com uma tecnologia tão importante quanto a inteligência artificial geral, ou AGI - uma vez que o ponto de chegada imaginado da IA, significando sistemas que realmente mostram auto-consciência. (Embora a definição esteja mudando para atender às necessidades comerciais daqueles que falam sobre isso.)

Por um momento, parecia que os sonhos dos empreendedores do Vale do Silício ficariam em segundo plano em relação à saúde geral da sociedade.

Mas para esses empresários, a narrativa em torno da doom da AI era mais preocupante do que os modelos de IA em si.

Em resposta, o cofundador a16z Marc Andreessen publicou “Por que a IA salvará o mundo” em junho de 2023, um ensaio de 7.000 palavras desmantelando a agenda dos doomers da AI e apresentando uma visão mais otimista de como a tecnologia se desdobrará.

SAN FRANCISCO, CA - 13 de setembro: O empreendedor Marc Andreessen fala no palco durante o TechCrunch Disrupt SF 2016 no Pier 48 em 13 de setembro de 2016 em São Francisco, Califórnia. (Foto de Steve Jennings/Getty Images para TechCrunch)Créditos da imagem: Steve Jennings / Getty Images

“A era da Inteligência Artificial está aqui, e as pessoas estão enlouquecendo. Felizmente, estou aqui para trazer as boas notícias: a IA não destruirá o mundo e, na verdade, pode salvá-lo”, disse Andreessen no ensaio.

Em sua conclusão, Andreessen apresentou uma solução conveniente para nossos medos com a IA: mover-se rapidamente e quebrar coisas - basicamente a mesma ideologia que definiu todas as outras tecnologias do século XXI (e seus problemas associados). Ele argumentou que as grandes empresas de tecnologia e startups deveriam poder construir IA o mais rápido e agressivamente possível, com poucas ou nenhuma barreira regulatória. Isso garantiria que a IA não caísse nas mãos de algumas empresas ou governos poderosos e permitiria que a América competisse eficazmente com a China, ele disse.

Claro, isso também permitiria que muitas startups de IA da a16z faturassem muito mais dinheiro - e alguns acharam seu tecnooptimismo desagradável em uma era de extrema disparidade de renda, pandemias e crises habitacionais.

Embora nem sempre concorde com a Big Tech, ganhar dinheiro é uma área em que toda a indústria pode concordar. Os cofundadores da a16z escreveram uma carta com o CEO da Microsoft, Satya Nadella, este ano, essencialmente pedindo ao governo para não regular a indústria de IA de forma alguma.

Enquanto isso, apesar de seu aceno frenético em 2023, Musk e outros tecnologistas não diminuíram o ritmo para se concentrar na segurança em 2024 - muito pelo contrário: o investimento em AI em 2024 superou tudo o que vimos antes. Altman rapidamente voltou ao comando do OpenAI, e uma massa de pesquisadores de segurança deixou a equipe em 2024 enquanto soavam o alarme sobre sua cultura de segurança em declínio.

A ordem executiva de AI focada na segurança de Biden caiu largamente em desuso este ano em Washington, D.C. - o próximo presidente eleito, Donald Trump, anunciou planos para revogar a ordem de Biden, argumentando que ela prejudica a inovação em IA. Andreessen diz que tem aconselhado Trump sobre IA e tecnologia nos últimos meses, e um antigo capitalista de risco da a16z, Sriram Krishnan, agora é o conselheiro sênior oficial de AI de Trump.

Os republicanos em Washington têm várias prioridades relacionadas à IA que superam o doom da IA hoje, de acordo com Dean Ball, um pesquisador focado em IA no Mercatus Center da Universidade George Mason. Isso inclui a ampliação de centros de dados para alimentar a IA, o uso de IA no governo e nas forças armadas, a competição com a China, a limitação da moderação de conteúdo das empresas de tecnologia de centro-esquerda e a proteção de crianças de chatbots de IA.

“Acredito que [o movimento para prevenir o risco catastrófico da IA] perdeu terreno no nível federal. No nível estadual e local, eles também perderam a única grande luta que tiveram”, disse Ball em uma entrevista ao TechCrunch. Claro, ele se refere ao controverso projeto de lei de segurança de IA da Califórnia SB 1047.

Parte da razão pela qual o doom da IA caiu em desgraça em 2024 foi simplesmente porque, à medida que os modelos de IA se tornavam mais populares, também víamos o quão não inteligentes eles podem ser. É difícil imaginar o Google Gemini se tornar o Skynet quando ele apenas disse para colocar cola em sua pizza.

Mas ao mesmo tempo, 2024 foi um ano em que muitos produtos de IA pareciam trazer conceitos da ficção científica para a vida. Pela primeira vez este ano: a OpenAI mostrou como poderíamos conversar com nossos telefones e não através deles, e o Meta revelou óculos inteligentes com compreensão visual em tempo real. As ideias subjacentes ao risco catastrófico da IA decorrem amplamente de filmes de ficção científica e, embora haja obviamente um limite, a era da IA está mostrando que algumas ideias da ficção científica podem não ser ficção para sempre.

A maior luta de doom de IA de 2024: SB 1047

O senador estadual Scott Wiener, um Democrata da Califórnia, à direita, durante a Cúpula Bloomberg BNEF em São Francisco, Califórnia, EUA, em quarta-feira, 31 de janeiro de 2024. A cúpula fornece ideias, insights e conexões para formular estratégias bem-sucedidas, capitalizar as mudanças tecnológicas e moldar um futuro mais limpo e competitivo. Fotógrafo: David Paul Morris/Bloomberg via Getty ImagesCréditos da imagem: David Paul Morris/Bloomberg via Getty Images / Getty Images

A batalha de segurança de IA de 2024 chegou ao auge com o SB 1047, um projeto de lei apoiado por dois pesquisadores de IA altamente respeitados: Geoffrey Hinton e Yoshua Benjio. O projeto de lei tentou impedir que sistemas avançados de IA causassem eventos de extinção em massa e ciberataques que poderiam causar mais danos do que a queda de energia do CrowdStrike em 2024.

O SB 1047 passou pela legislação da Califórnia, chegando até a mesa do governador Gavin Newsom, que o chamou de um projeto de lei com "impacto desproporcional". O projeto de lei tentou prevenir os tipos de coisas sobre as quais Musk, Altman e muitos outros líderes do Vale do Silício alertaram em 2023 quando assinaram aquelas cartas abertas sobre a IA.

Mas Newsom vetou o SB 1047. Nos dias que antecederam sua decisão, ele falou sobre a regulamentação da IA no palco no centro de São Francisco, dizendo: "Não posso resolver tudo. O que podemos resolver?"

Isso resume claramente como muitos formuladores de políticas estão pensando sobre o risco catastrófico da IA hoje. Simplesmente não é um problema com uma solução prática.

Mesmo assim, o SB 1047 era falho além de seu foco no risco catastrófico da IA. O projeto de lei regulamentava os modelos de IA com base no tamanho, na tentativa de regular apenas os maiores jogadores. No entanto, isso não levou em conta novas técnicas como cálculo no momento do teste ou o surgimento de modelos de IA pequenos, para os quais os principais laboratórios de IA já estão se ajustando. Além disso, o projeto de lei foi amplamente considerado um ataque à IA de código aberto - e por extensão, ao mundo da pesquisa - porque teria limitado empresas como Meta e Mistral de lançar modelos de IA de fronteira altamente personalizáveis.

Mas, de acordo com o autor do projeto de lei, o senador estadual Scott Wiener, o Vale do Silício jogou sujo para influenciar a opinião pública sobre o SB 1047. Ele disse anteriormente ao TechCrunch que os capitalistas de risco da Y Combinator e da A16Z se envolveram em uma campanha de propaganda contra o projeto de lei.

Especificamente, esses grupos espalharam a alegação de que o SB 1047 enviaria desenvolvedores de software para a prisão por perjúrio. A Y Combinator pediu a jovens fundadores que assinassem uma carta dizendo isso em junho de 2024. Ao mesmo tempo, o sócio geral da Andreessen Horowitz, Anjney Midha, fez uma afirmação semelhante em um podcast.

O Brookings Institution rotulou isso como uma de muitas distorções do projeto de lei. O SB 1047 mencionou que executivos de tecnologia precisariam apresentar relatórios identificando falhas em seus modelos de IA, e o projeto de lei observou que mentir em um documento do governo é perjúrio. No entanto, os capitalistas de risco que espalharam esses temores deixaram de mencionar que as pessoas raramente são acusadas de perjúrio, e ainda mais raramente condenadas.

A YC rejeitou a ideia de que eles espalharam desinformação, dizendo anteriormente ao TechCrunch que o SB 1047 era vago e não tão concreto quanto o senador Wiener o apresentou.

Mais geralmente, houve um sentimento crescente durante a luta do SB 1047 de que os doomers da IA não eram apenas antitecnologia, mas também delirantes. O investidor famoso Vinod Khosla chamou Wiener de desinformado sobre os perigos reais da IA em outubro deste ano.

O principal cientista de IA do Meta, Yann LeCun, sempre se opôs às ideias subjacentes ao doom da IA, mas tornou-se mais vocal este ano.

“A ideia de que de alguma forma [sistemas inteligentes] criarão seus próprios objetivos e dominarão a humanidade é simplesmente absurda, é ridícula,” disse LeCun em Davos em 2024, observando como estamos muito longe de desenvolver sistemas de IA superinteligentes. “Existem muitas e muitas maneiras de construir [qualquer tecnologia] de maneiras que serão perigosas, erradas, matarão pessoas, etc… Mas desde que haja uma maneira de fazer certo, é tudo o que precisamos.”

Enquanto isso, os formuladores de políticas se voltaram para um novo conjunto de problemas de segurança de IA.

A luta à frente em 2025

Os formuladores de políticas por trás do SB 1047 insinuaram que podem voltar em 2025 com um projeto de lei modificado para abordar riscos de IA de longo prazo. Um dos patrocinadores por trás do projeto de lei, a Encode, diz que a atenção nacional que o SB 1047 atraiu foi um sinal positivo.

“O movimento de segurança da IA fez progressos muito encorajadores em 2024, apesar do veto do SB 1047,” disse Sunny Gandhi, Vice-presidente de Assuntos Políticos da Encode, em um e-mail ao TechCrunch. “Estamos otimistas de que a conscientização do público sobre os riscos de longo prazo da IA está crescendo e há uma crescente disposição entre os formuladores de políticas para enfrentar esses desafios complexos.”

Gandhi diz que a Encode espera “esforços significativos” em 2025 para regular em torno do risco catastrófico assistido por IA, embora ela não tenha divulgado nenhum específico.

No lado oposto, o sócio-gerente da a16z Martin Casado é uma das pessoas que lideram a luta contra a regulamentação do risco catastrófico da IA. Em um artigo de opinião de dezembro sobre política de IA, Casado argumentou que precisamos de mais política de IA razoável daqui para frente, declarando que “a IA parece ser tremendamente segura.”

“A primeira onda de esforços de política de IA estúpidos está largamente para trás,” disse Casado em um tweet de dezembro. “Espero que possamos ser mais inteligentes daqui para frente.”

Chamar a IA de “tremendamente segura” e tentativas de regulá-la de “estúpidas” é uma simplificação exagerada. Por exemplo, a Character.AI - uma startup na qual a a16z investiu - está atualmente sendo processada e investigada por preocupações com a segurança de crianças. Em um processo ativo, um garoto da Flórida de 14 anos se matou depois de, supostamente, confiar seus pensamentos suicidas a um chatbot da Character.AI com o qual ele teve conversas românticas e sexuais. Esse caso, por si só, mostra como nossa sociedade precisa se preparar para novos tipos de riscos em torno da IA que podem ter soado ridículos apenas alguns anos atrás.

Há mais projetos de lei circulando que abordam o risco de IA de longo prazo - incluindo um recém-introduzido a nível federal pelo senador Mitt Romney. Mas agora, parece que os doomers da IA estarão travando uma batalha difícil em 2025.