O dilema do solucionador: Chris Lehane e a missão impossível da OpenAI

Chris Lehane é um dos melhores do ramo em fazer desaparecer más notícias. Foi secretário de imprensa de Al Gore durante os anos Clinton e atuou como gerente de crise da Airbnb em meio a inúmeros pesadelos regulatórios – Lehane sabe como dar a volta por cima. Agora, ele está há dois anos em uma das missões possivelmente mais impossíveis: como vice-presidente de política global da OpenAI, sua tarefa é convencer o mundo de que a empresa realmente se importa com a democratização da inteligência artificial, mesmo quando a companhia se comporta cada vez mais como qualquer outro gigante tecnológico que afirma ser diferente.

Tive 20 minutos com ele no palco de uma conferência em Toronto, tempo suficiente para ultrapassar os discursos ensaiados e chegar às contradições reais que corroem a imagem cuidadosamente construída pela OpenAI. Não foi fácil nem completamente bem-sucedido. Lehane é genuinamente bom no que faz – simpático, com um tom razoável, admite incertezas e até conta que acorda às 3 da manhã preocupado se tudo isso realmente beneficiará a humanidade.

No entanto, boas intenções pouco valem quando a sua empresa está emitindo intimações contra críticos, esgotando os recursos de cidades economicamente deprimidas ao consumir água e eletricidade, e inclusive trazendo celebridades falecidas de volta à “vida” para afirmar sua dominação no mercado.

O problema com o Sora está, na verdade, na raiz de todas essas questões. A ferramenta de geração de vídeos, lançada recentemente, incorpora material protegido por direitos autorais de forma quase que intrínseca. Foi uma jogada audaciosa para uma empresa que já enfrentava processos movidos por grandes veículos e parte da indústria editorial. Do ponto de vista comercial e de marketing, entretanto, a estratégia foi brilhante. Um aplicativo de acesso restrito disparou nas paradas, com pessoas criando versões digitais de si mesmas, do próprio CEO Sam Altman, de personagens como Pikachu, Mario e Cartman, e até de celebridades falecidas, como Tupac Shakur.

Quando questionado sobre o que impulsionou a decisão de lançar essa nova versão do Sora com tais personagens, Lehane reproduziu o argumento padrão: o Sora é uma “tecnologia de uso geral”, assim como a eletricidade ou a imprensa, democratizando a criatividade para aqueles que não dispõem de talento ou recursos. Segundo ele, até ele – que se define como “criativo zero” – agora consegue produzir vídeos.

O que ele deixou escapar foi que, inicialmente, a OpenAI “permitiu” que os detentores de direitos optassem por não ter seus trabalhos usados para treinar o Sora, o que foge à prática comum do uso protegido por direitos autorais. Mas, quando a empresa percebeu que as pessoas realmente gostavam de usar imagens protegidas, o modelo “evoluiu” para um sistema em que a adesão era voluntária. Não se tratou exatamente de aprimorar, mas de testar os limites do que seria possível fazer.

Naturalmente, essa situação faz lembrar a irritação dos editores, que acusam a OpenAI de utilizar seu trabalho sem compartilhar os lucros financeiros. Ao ser pressionado sobre o fato de os editores serem excluídos do modelo econômico, Lehane mencionou o conceito de “fair use”, aquela doutrina legal americana que deveria equilibrar os direitos dos criadores com o acesso público ao conhecimento – a “arma secreta” do domínio tecnológico nos Estados Unidos.

Em outro momento, após uma entrevista com uma figura influente – cujo nome evoca a lembrança de debates sobre mudanças climáticas – ficou claro que qualquer pessoa poderia, simplesmente, perguntar a um sistema de inteligência artificial sobre o assunto em vez de ler uma análise detalhada. “É algo ‘iterativo’, mas também um substituto”, observei.

Pela primeira vez, Lehane deixou de lado o discurso ensaiado. “Todos nós vamos precisar descobrir uma solução para isso”, afirmou. “É fácil e superficial sentar aqui no palco dizendo que precisamos encontrar novos modelos econômicos. Mas eu acredito que conseguiremos.”

Depois, surgiu a questão da infraestrutura, um ponto que ninguém parece disposto a responder de forma honesta. A OpenAI já opera um campus de data center no Texas e recentemente iniciou a construção de um imenso data center em Ohio, em parceria com outras grandes empresas. Lehane comparou o acesso à inteligência artificial com o advento da eletricidade, afirmando que quem tem acesso desde cedo continua à frente – mas o projeto Stargate da OpenAI, que demanda enormes quantidades de água e energia, parece ter como alvo justamente regiões economicamente vulneráveis.

Quando questionado se essas comunidades se beneficiarão ou simplesmente arcarão com os custos, Lehane recorreu a termos como gigawatts e geopolítica. Ele explicou que a empresa precisa de cerca de um gigawatt de energia por semana, fazendo comparações com a escala de energia instalada em outros países e ressaltando a necessidade, para que democracias possam ter uma inteligência artificial democrática, de competir nesse cenário. “O lado otimista em mim diz que isso modernizará os sistemas energéticos”, disse, pintando um cenário de uma América reindustrializada com redes elétricas transformadas.

Embora a visão seja inspiradora, ela não responde se, por exemplo, moradores de cidades como essas vão assistir suas contas de energia dispararem enquanto a OpenAI gera vídeos com imagens de ícones históricos.

Um exemplo particularmente desconfortável foi o relato de Zelda Williams, que no dia anterior à nossa conversa implorava a desconhecidos nas redes sociais que parassem de enviar vídeos gerados por inteligência artificial com imagens de seu falecido pai, Robin Williams. “Vocês não estão fazendo arte. Estão transformando as vidas humanas em algo repugnante, como se fossem hot dogs excessivamente processados”, escreveu ela.

Quando fui questionado sobre como a empresa reconcilia esse tipo de dano íntimo com sua missão, Lehane explicou que há processos envolvidos – desde a concepção responsável dos produtos, passando por rigorosos testes, até parcerias com governos. “Não existe um manual para lidar com essas questões, certo?”

Em alguns momentos, ele demonstrou sua vulnerabilidade, confessando que acorda às 3 da manhã preocupado com a democratização, a geopolítica e a infraestrutura, reconhecendo as enormes responsabilidades que recaem sobre seus ombros.

Independentemente de esses momentos terem sido parte da estratégia para encantar o público ou uma manifestação genuína de preocupação, confesso que saí de Toronto tendo assistido a uma verdadeira aula de comunicação política – Lehane conciliando uma tarefa impossível enquanto esquivava de perguntas sobre decisões empresariais que, por sinal, talvez nem ele próprio endosse completamente. E então, aconteceu algo inesperado.

Um advogado que atua em política de inteligência artificial em uma organização de advocacy revelou que, enquanto conversava com Lehane em Toronto, a OpenAI tinha enviado um representante para sua residência em Washington, D.C., durante o jantar, para entregar uma intimação. O intuito era obter mensagens privadas trocadas com legisladores da Califórnia, estudantes universitários e ex-funcionários da empresa.

O profissional acusa a OpenAI de utilizar táticas de intimidação em meio a uma nova proposta de regulação da inteligência artificial, alegando que a batalha legal travada com um famoso empresário foi usada como pretexto para atacar críticos – insinuando que havia financiamentos secretos por trás desses movimentos. Em meio a discussões nas redes sociais, ele chegou a rotular Lehane como um “mestre nas artes políticas obscuras”.

No ambiente político de Washington, isso pode até soar como um elogio. Mas, para uma empresa cuja missão é “desenvolver uma inteligência artificial que beneficie toda a humanidade”, tais acusações soam como uma dura crítica.

O que importa, porém, é que até mesmo os próprios funcionários da OpenAI estão divididos quanto à direção que a empresa está tomando. Alguns, tanto atuais quanto antigos, manifestaram suas inquietações nas redes sociais após o lançamento da nova versão do Sora, inclusive pesquisadores e acadêmicos que, embora reconheçam a excelência técnica da ferramenta, questionam se é o momento de se congratular por evitar os erros cometidos por outras plataformas.

Mais recentemente, o chefe de alinhamento da missão da OpenAI publicou um comentário bastante revelador. Em uma postagem, ele afirmou – mesmo ciente dos riscos para sua carreira – que a empresa precisa evitar se tornar uma “potência assustadora” em vez de uma organização virtuosa. Segundo ele, a missão e o compromisso com toda a humanidade exigem padrões extremamente elevados.

Esse posicionamento é, no mínimo, surpreendente. Um executivo da OpenAI questionando publicamente se sua empresa está se transformando em uma “potência assustadora” ao invés de um agente do bem não é algo comum – especialmente vindo de alguém que abraçou a missão da empresa e que agora admite viver uma crise de consciência, mesmo que isso coloque sua carreira em risco.

Essa é uma situação cristalizadora. Você pode ser o melhor operador político no setor de tecnologia, um mestre em contornar situações impossíveis, e mesmo assim acabar trabalhando para uma empresa cujas ações entram cada vez mais em conflito com seus valores declarados – contradições que só tendem a se intensificar à medida que a OpenAI avança rumo à inteligência artificial geral.

No fim das contas, a verdadeira questão não é se Chris Lehane conseguirá vender a missão da OpenAI, mas se os outros – especialmente os que trabalham lá – ainda acreditam nela.