Vous souvenez-vous qu’en 2018, Google a supprimé la mention « Don’t be evil » de son code de conduite ? Il semble qu’il se soit montré à la hauteur de cette suppression ces derniers temps. Lors de sa conférence annuelle I/O à San Francisco cette semaine, le géant de la recherche a finalement dévoilé sa vision de la recherche intégrée à l’IA – et cette vision implique apparemment de faire tomber les éditeurs numériques.
La nouvelle interface de recherche de Google alimentée par l’IA, appelée « Search Generative Experience » ou SGE, comprend une fonction appelée « AI Snapshot ». Il s’agit en fait d’une énorme fonction de résumé en haut de la page. Posez une question, par exemple : « Pourquoi le pain au levain naturel est-il toujours aussi populaire ? » – l’un des exemples utilisés par Google dans sa présentation – et, avant que vous n’arriviez aux liens bleus que nous connaissons tous, Google vous fournira un résumé généré par un modèle de langage (LLM). Ou, nous pouvons le supposer, un « instantané » instantané.
« Les résultats de recherche normaux de Google se chargent presque immédiatement », explique David Pierce de The Verge. au-dessus d’eux, une section rectangulaire orange clignote et affiche la phrase « Generative AI is experimental » (l’IA générative est expérimentale). Quelques secondes plus tard, la lueur est remplacée par un résumé généré par l’IA : quelques paragraphes détaillant la qualité du pain fermenté naturellement, les avantages de ses capacités prébiotiques, etc
« À côté de cela, ajoute-t-il, se trouvent trois liens vers des sites web contenant des informations qui, selon Reid, « confirment » le contenu du résumé
Comme on peut s’y attendre, ce format de recherche, dans lequel Google utilise la technologie de l’IA pour régurgiter l’internet aux utilisateurs, est très différent de la manière dont fonctionne aujourd’hui l’internet facilité par la recherche. Si vous cherchez la même question – « Pourquoi le pain naturellement levé est-il encore si populaire ? » – vous trouverez une scène plus familière – vous découvrirez une scène plus familière : un extrait mis en évidence du site qui a gagné la course au référencement (dans ce cas, le site de British Baker), suivi d’une série de liens bleus.
À première vue, ce changement peut sembler relativement bénin. Souvent, tout ce que les internautes veulent, c’est un résumé rapide ou un extrait de quelque chose.
Mais il n’est pas injuste de dire que Google, qui en avril, selon les données de SimilarWeb, accueillait environ 91 % de l’ensemble du trafic de recherche, est en quelque sorte synonyme d’internet. Et l’internet n’est pas quelque chose d’éthéré et de prédéterminé, comme l’eau ou l’air naturels. L’internet est un marché, et Google en est le faiseur de roi.
En tant que telle, la démonstration soulève une question extrêmement importante pour l’avenir de l’industrie journalistique déjà dévastée : si l’IA de Google va broyer le travail original et en fournir une version distillée aux utilisateurs à grande échelle, sans jamais les connecter au travail original, comment les éditeurs vont-ils continuer à monétiser leur travail ?
« Google a dévoilé sa vision de l’intégration de l’intelligence artificielle dans la recherche », a tweeté James Vincent, de The Verge. « La réponse courte : elle avalera le web ouvert et résumera/éditera/régurgitera (choisissez l’adjectif qui reflète votre niveau d’inconfort) dans une interface Google brillante »
Lesétudes montrent que les consommateurs d’informations atteignent rarement la deuxième page des résultats de recherche, et encore moins le bas de la page. Pire encore, ce n’est pas comme si Google prenait des clics à ses anciens fournisseurs d’informations en embauchant une armée de rédacteurs de contenu humains pour produire des résumés. La nouvelle interface de recherche de Google, construite sur un modèle qui a déjà été formé par de nombreuses productions humaines non rémunérées, semblera engloutir encore plus de contenu créé par l’homme et le régurgiter aux chercheurs d’informations, tout en retirant de précieux clics aux rédacteurs qui font réellement le travail d’information, de conservation et qui demandent des comptes à des intérêts puissants tels que ceux de Google.
Pour l’instant, on ne sait pas si Google prévoit de dédommager ces éditeurs, ni comment.
Dans une déclaration envoyée par courriel à Futurism, un porte-parole de Google a déclaré que « nous introduisons cette nouvelle expérience d’IA générative en tant qu’expérience dans les laboratoires de recherche pour nous aider à itérer et à améliorer, en incorporant les commentaires des utilisateurs et d’autres parties prenantes »
« Au fur et à mesure que nous expérimentons de nouvelles capacités de recherche alimentées par l’IA générative, nous continuerons à donner la priorité aux approches qui nous permettent d’envoyer un trafic précieux à un large éventail de créateurs et de soutenir un web sain et ouvert », a ajouté le porte-parole.
À la question de savoir si l’entreprise envisageait de dédommager les éditeurs pour tout contenu régurgité par l’IA, Google n’a guère répondu.
« Nous n’avons pas l’intention de partager cette information, mais nous continuerons à travailler avec l’ensemble de l’écosystème », a déclaré le porte-parole à Futurism.
Cependant, les éditeurs se méfient énormément de ces changements.
« Si cela fonctionne vraiment et est mis en œuvre avec fermeté », a écrit Alex Donaldson, propriétaire d’un site de RPG, « c’est littéralement la fin du modèle économique pour de vastes pans des médias numériques ».
En fin de compte, Google doit répondre à de nombreuses questions, notamment parce que les systèmes d’intelligence artificielle, y compris ceux de Google, fabriquent constamment des informations.
Le géant de la Silicon Valley affirme depuis longtemps que son objectif est de maximiser l’accès à l’information. Si l’entreprise ne trouve pas un moyen de compenser les rédacteurs en chef pour le travail des journalistes, les effets sur l’accès réel du public à l’information pourraient être catastrophiques. Avec le contenu de Futurism.