
Em uma aparição recente no Possible, um podcast co-apresentado pelo co-fundador do LinkedIn, Reid Hoffman, o CEO da Google DeepMind, Demis Hassabis, disse que a gigante da busca planeja eventualmente combinar seus modelos de IA Gemini com seus modelos de geração de vídeo Veo para melhorar a compreensão do mundo físico.
“Sempre construímos o Gemini, nosso modelo base, para ser multimodal desde o início,” disse Hassabis, “E a razão pela qual fizemos isso [é porque] temos uma visão para esta ideia de um assistente digital universal, um assistente que na verdade ajuda você no mundo real.”
A indústria de IA está caminhando gradualmente em direção aos modelos “omni”, se quiser — modelos que podem entender e sintetizar muitas formas de mídia. Os novos modelos Gemini do Google podem gerar áudio, assim como imagens e texto, enquanto o modelo padrão da OpenAI no ChatGPT agora pode criar imagens — incluindo, é claro, arte no estilo Studio Ghibli. A Amazon também anunciou planos para lançar um modelo “qualquer para qualquer” ainda este ano.
Esses modelos omni requerem muitos dados de treinamento — imagens, vídeos, áudio, texto e assim por diante. Hassabis insinuou que os dados de vídeo para Veo estão vindo principalmente do YouTube, uma plataforma que o Google possui.
“Basicamente, ao assistir vídeos do YouTube — muitos vídeos do YouTube — [Veo 2] pode descobrir, sabe, a física do mundo,” disse Hassabis.
O Google anteriormente disse ao TechCrunch que seus modelos “podem ser” treinados em “algum” conteúdo do YouTube de acordo com seu acordo com os criadores do YouTube. Supostamente, a empresa ampliou seus termos de serviço no ano passado em parte para acessar mais dados para treinar seus modelos de IA.