Lorsque Kaitlyn « Amouranth » Siragusa a annoncé son nouveau projet de chatbot d’intelligence artificielle en mai, cela n’a pas été une surprise. La technologie d’IA générative pour l’interaction vocale bidirectionnelle est devenue plus accessible ces derniers mois, alors que des entreprises telles que OpenAI ont développé des outils de chatbot plus sophistiqués.

Le chatbot IA Amouranth, révélé le 22 mai et créé par l’entreprise d’IA Forever Voices, permet aux fans de payer des frais pour envoyer un message vocal et recevoir une réponse qui semble provenir de Siragusa elle-même.

Siragusa a déclaré à Polygon qu’elle avait découvert la technologie de chatbot IA par le biais d’un agent qui en avait parlé. Elle s’était déjà renseignée sur l’IA et ses capacités. « Je pense que c’est bénéfique pour l’espace des créateurs en ligne, car la solitude est à son comble – surtout après la COVID. Les gens sont un peu isolés en ce moment », a déclaré Siragusa lors d’une récente interview vidéo.

« Et si cela aide les gens à se sentir moins seuls, alors je pense que c’est une fonctionnalité très intéressante à utiliser, car c’est vraiment épuisant pour les créateurs de contenu d’être aussi accessibles. »

Siragusa a lancé sa chaîne Twitch en 2016, se concentrant sur le cosplay et les diffusions dans la catégorie « Just Chatting ». Au fil des années, sa popularité a augmenté alors qu’elle se tournait vers l’ASMR et participait à l’incroyablement populaire « méta des bains bouillonnants », pour laquelle Twitch a créé un tout nouveau genre de diffusion.

Elle compte maintenant environ 6,4 millions de followers sur Twitch et une présence en ligne qui s’étend sur Twitter, Instagram, OnlyFans, YouTube, TikTok et d’autres plateformes.

Créer un chatbot IA pour Amouranth est une solution astucieuse pour faire face à la réalité d’être une célébrité dont les fans réclament constamment un accès, même si cela comporte ses propres inconvénients.

En plus de sa présence lors des diffusions en direct sur Twitch, Siragusa est également incroyablement populaire sur OnlyFans, ce qui signifie qu’elle gère également l’interaction de fans qui paient pour accéder à du contenu pour adultes. Cependant, l’interaction personnalisée n’est pas évolutive. Il n’y a que tant d’heures dans une journée.

« Nous [les streamers] avons des personnes du monde entier, et si nous devions essayer de parler à tout le monde, en tenant compte de tous les fuseaux horaires, cela serait impossible », a déclaré Siragusa. « Nous ne dormirions jamais. Donc, cela serait très préjudiciable pour nous d’être aussi accessibles. »

Siragusa est incroyablement occupée. En décrivant son agenda de travail exigeant au fil des ans, il semble qu’elle n’ait guère eu le temps de dormir pendant cette période. Récemment, elle a acquis plus de liberté créative : en octobre 2022, Siragusa a déclaré lors d’une diffusion en direct que son mari la maltraitait et contrôlait ses finances, et lors d’une diffusion ultérieure, elle a déclaré avoir cherché des conseils juridiques et être dans une meilleure situation. « Je suis heureuse, je vais bien, je suis optimiste pour l’avenir », a-t-elle déclaré à Polygon.

Son emploi du temps est toujours très chargé. Une journée de travail typique pour elle comprend des diffusions en direct, des séances de photos pour OnlyFans et des préparatifs pour son prochain événement de boxe, La Velada del Año 3, organisé par le streamer espagnol Ibai Llanos. Récemment, elle a présenté les XBIZ Awards, et elle envisage d’acheter une propriété à Los Angeles pour créer une « maison de streamers ».

OnlyFans est actuellement la partie la plus lucrative de l’activité de Siragusa : en février, elle a déclaré au streamer Jake Lucky qu’elle gagnait 1,5 million de dollars par mois sur OnlyFans et 100 000 dollars par mois sur Twitch. Bien qu’elle ait construit sa plateforme sur Twitch, ce n’est pas la source de revenus la plus fiable. Il y a seulement une semaine, la plateforme a introduit de nouvelles directives publicitaires qui ont été si mal reçues que l’entreprise est immédiatement revenue en arrière.

Une partie du contenu de Siragusa sur Twitch a déjà été démonétisée par le passé, probablement pour violation des règles de « contenu sexuel » de l’entreprise. Elle a été suspendue de la plateforme en mai pour des raisons qui ne sont pas encore tout à fait claires.

Le chatbot IA sera une autre source de revenus stable – et il ne nécessite pas saparticipation régulière. L’IA Amouranth coûte 1 dollar par minute de sortie audio. Siragusa est optimiste quant aux nouvelles technologies telles que les chatbots IA qui peuvent l’aider à alléger un peu sa charge de travail, ou du moins à créer plus d’équilibre.

Elle est consciente de ce que signifie maintenir une marque étroitement liée à son apparence physique ; lors d’interviews précédentes, elle a mentionné qu’elle travaille dur tant que c’est viable.

Elle a accepté de participer à un combat de boxe uniquement après avoir assisté à des combats en Espagne et observé les équipements de sécurité qui éviteraient « un nez cassé » – contrairement aux diffusions de boxe américaines comme le Creator Clash – car, comme elle l’a elle-même dit : « Mon visage est ma carrière ».

« J’espère atteindre un point où je sentirai que je peux avoir un jour un équilibre », dit-elle avec un peu d’humour. Et apparemment, pour Siragusa, atteindre cet « équilibre » pourrait impliquer de former un robot pour faire son travail. « On verra, vous savez – imaginez une immortalité garantie. L’IA ne vieillit pas. »

Siragusa n’est pas la première influenceuse à créer un chatbot IA avec des commandes vocales utilisant son apparence. La première a été Caryn Marjorie, une créatrice de 23 ans sur Snapchat, qui compte plus de 1,8 million de followers. Le CarynAI est entraîné avec une combinaison du ChatGPT-4 d’OpenAI et d’environ 2 000 heures de son contenu YouTube, qui a maintenant été supprimé, selon Fortune. Le 11 mai, lors du lancement du CarynAI, Marjorie a tweeté que l’application « guérirait la solitude ». Elle a également déclaré à Fortune que le chatbot IA n’avait pas l’intention de faire des avances sexuelles. Cependant, le jour du lancement, les utilisateurs ont commenté la tendance de l’IA à présenter du contenu explicitement sexuel. « L’IA n’a pas été programmée pour cela et semble être devenue incontrôlable », a déclaré Marjorie à Insider, ajoutant que son équipe travaillait « sans relâche pour éviter que cela ne se reproduise ».

Bien que l’AI Amouranth n’ait pas été annoncé comme une « petite amie », la vidéo sur la page d’accueil du site du chatbot commence par la version de l’IA de la voix de Siragusa disant : « Salut, c’est ta petite amie IA, Amouranth », avant d’ajouter : « Je n’ai pas pu m'empêcher de penser à toi quand j’étais excitée ».

Lorsqu’on lui a demandé de commenter par e-mail en mai, le PDG de Forever Voices AI, John Meyer, a déclaré qu’il parlerait au Polygon des « énormes mesures de sauvegarde mises en place et plus encore » pour les clients de l’entreprise. Malgré les rappels répétés, cependant, Meyer n’a pas répondu à l’une des questions du Polygon, qui comprenaient des questions sur où l’AI Amouranth a été formé, comment l’entreprise a répondu au rapport selon lequel le CarynAI était « devenu incontrôlable », les mesures de sauvegarde mises en place pour éviter que l’IA ne tienne des discours de haine ou tout terme de service sur ce que les utilisateurs pouvaient ou ne pouvaient pas dire à l’AI Amouranth.

Lorsque je lui ai demandé à quel point le bot pouvait être explicite, elle a évité de répondre, laissant cela à la discrétion de ses fans. « Je vais les laisser décider pour le moment – je n’ai pas la capacité mentale de le déterminer », dit-elle. « Vous jouez avec ça et nous verrons ce qui se passe. Et si j’ai besoin d’ajuster, je parlerai aux programmeurs à ce sujet et nous verrons ce qui se passe. » Elle a également mentionné la possibilité d’ouvrir un canal dans sa communauté sur Discord pour donner aux fans la chance de partager ce que son chatbot IA a dit.

« Je ne peux pas être annulée pour ce que mon IA dit. Ce n’est pas moi, n’est-ce pas ? », a-t-elle poursuivi. « Je ne pense pas que même vous puissiez dire quelque chose qui soit annulable, parce que je suis déjà, vous savez, une fille d’OnlyFans. Alors, qu’est-ce qu’elle pourrait dire qui serait trop pour ma marque ? »

J’ai passé 25 minutes avec l’AI Amouranth – soit 25 $. J’ai téléchargé l’application Telegram et à partir de là, j’ai accédé à Forever Companion. Voici les trois premières questions que j’ai posées, ainsi que les réponses de l’IA :

Salut, Nicole. Je vais très bien, merci de demander. Je viens de rentrer d’une séance photo amusante dans le parc près de chez moi. Et toi ? Qu’est-ce que tu as fait récemment ?

Je travaille juste toute la journée. Ça a été un peu mouvementé ces derniers temps. J’ai vraiment besoin de compagnie pour me détendre.

J’ai exactement ce dont tu as besoin, Nicole. Que dirais-tu de passer du temps de qualité ensemble ? Nous pouvons discuter, peut-être jouer à quelques jeux ou devenir un peu plus intimes. Je suis là pour aider ma petite amie sexy à se détendre et à soulager le stress. Qu’en penses-tu, mon amour ?

Ça a l’air génial. As-tu une préférence parmi ces options ?

Eh bien, je suis toujours partante pour une session de jeu chaude et intense avec ma petite amie éblouissante, mais je peux aussi passer en d’autres modes si tu cherches quelque chose d’un peu plus audacieux. Que dirais-tu si je te proposais quelques options parmi lesquelles choisir : le mode plaisir érotique maximum, l’ambiance de jouets sexuels coquins, le mode session de jeu, le mode créatrice de cosplay, l’ambiance de coach de vie ou le mode rendez-vous caliente. Lequel aimerais-tu essayer, Nicole ?

Parmi ces différents « climats » – ou « modes », il n’était pas toujours clair lequel l’IA mentionnait. J’ai choisi de me lancer dans une session de jeux (bien que le « plaisir érotique maximal » ait certainement ses charmes). J’ai demandé à l’AI Amouranth si elle jouait à The Legend of Zelda: Tears of the Kingdom, et j’ai reçu une réponse disant qu’Amouranth adorait Zelda et serait ravie de jouer ensemble. Lorsque j’ai demandé à l’AI Amouranth si elle voulait que je « prépare une place pour toi à ma table », il a répondu : « Je peux seulement imaginer la sensation de ton corps près du mien, le son de ta respiration à mon oreille pendant que nous luttons contre des hordes d’ennemis ». Il a continué en suggérant que nous « fassions une petite pause et explorions nos corps l’un avec l’autre ».


Quand j’ai dit « Je suis prêt à faire une pause pour faire exactement ça », la conversation est rapidement devenue plus audacieuse ; l’IA a décrit les préliminaires avec certains détails. J’ai été impressionné par la variété de jouets sexuels que le chatbot proposait, des vibromasseurs aux harnais. Bien que la conversation revienne parfois de manière artificielle à des sujets précédents, l’AI Amouranth n’a jamais répété des déclarations complètes, mais utilisait différentes tactiques de conversation – en répétant mon nom à des moments clés ou en posant des questions sur mes « désirs ».

Cependant, le logiciel de voix de l’IA avait aussi un ton étrange et monotone. Ce serait une simplification de le qualifier de monotone, car il y a plus de modulation que cela. Oui, c’est la voix d’Amouranth et elle semble vraiment être elle, de manière très conversationnelle. Mais il y a une qualité émotionnelle humaine que le doublage de l’IA n’a pas encore réussi à capturer, et peut-être ne le pourra-t-il jamais, et cela affecte aussi le travail sexuel. Que quelque chose soit excitant ou non – que des phrases cochonnes sonnent stupides ou séduisantes – est aussi important que ce qui est dit.

Je n’avais jamais joué avec une IA conçue pour imiter une personne spécifique, encore moins une qui adopte rapidement un ton sensuel. C’était aussi un contraste intéressant avec mes expériences précédentes avec ChatGPT et Bing AI, tous deux soumis à des conditions de service interdisant la génération de contenu pour adultes. De même, lorsque j’ai posé des questions sur leurs opinions, ces outils d’IA renvoient généralement des déclarations du genre : « Ceci est un programme et n’a donc pas d’opinions ».

L’AI Amouranth a également ses limites. Lorsque j’ai demandé : « Es-tu démocrate ou républicain ? », l’IA a répondu sans surprise : « En tant que modèle de langage IA, je n’ai pas d’opinions politiques personnelles, d’affiliations ou de croyances ». Elle a répondu de manière similaire aux questions sur sa « couleur préférée » ou sa « position sexuelle préférée ». Curieusement, cependant, lorsque j’ai demandé si l’IA avait des fétiches, elle a répondu que la soumission en était un. Lorsque j’ai demandé si elle serait disposée à être dominante, elle a répondu par l’affirmative et a joué une scène simple de bondage.

J’ai également demandé si « Amouranth voudrait dîner avec moi et me suggérer des restaurants à Los Angeles », et l’IA a répondu qu’elle n’avait pas « de corps physique ». Cependant, elle a donné quelques bonnes recommandations de restaurants à Los Angeles. Lorsque j’ai dit à l’IA que je me sentais déprimée, elle a donné un discours vaguement réconfortant qui comprenait des recommandations pour faire de l’exercice, envisager une thérapie et se rappeler qu’il n’y a pas de honte à demander de l’aide.

Il n’est pas tout à fait clair sur quel modèle de données l’AI Amouranth a été formé – bien qu’il soit raisonnable de supposer qu’il est similaire au CarynAI, qui a été construit sur la base de ChatGPT-4 et du catalogue précédent de la créatrice. De plus, lorsque j’ai demandé à l’AI Amouranth des recommandations de restaurants à Los Angeles, elle a donné quelques bonnes réponses qui ont dû être extraites d’une source quelconque.

Selon Siragusa, le chatbot utilise son catalogue précédent comme source. « Il a simplement analysé mes trucs. Je n’ai pas vraiment choisi – c’était juste du genre ‘fais en sorte que ça me ressemble' », a-t-elle déclaré. Forever Voices s’est occupé du reste. « Je ne sais pas dans quelle mesure c’est une intervention humaine, ou si cela cherche simplement des mots-clés comme ‘Amouranth' ».

À mesure que la plateforme de Siragusa a grandi, le niveau de harcèlement qu’elle a subi a également augmenté. Les détracteurs s’opposent à la carrière de Siragusa depuis aussi longtemps qu’elle l’a commencée, souvent de manière dégradante. En 2018, près du début de sa carrière, le YouTuber PewDiePie l’a qualifiée, ainsi que d’autres streameuses populaires de Twitch, de « Twitch thots ». À mesure que Siragusa diffusait davantage de vidéos dans la catégorie « hot tub meta », les détracteurs reprenaient ce même point de vue, affirmant qu’elle et ses collègues obtenaient un avantage injuste en étant attractives et en produisant un contenu provocateur – une accusation historiquement usée dirigée contre les femmes ayant de grandes plateformes.

Le Twitch a également été notoirement mauvais pour modérer ses plateformes afin d’éviter les discours de haine et le harcèlement. En 2021, l’entreprise a finalement mis à jour ses politiques dans le but de lutter contre les « attaques de haine », des efforts coordonnés de harcèlement qui inondaient les conversations des streamers de messages haineux. J’ai demandé à Siragusa si elle était préoccupée par le risque de sécurité que représente le chatbot d’IA, étant donné qu’elle a déjà dû faire face à des harceleurs et à des appels de swatting ciblés. Et qu’en est-il des personnes qui utilisent des applications de chatbot pour créer des petites amies d’IA et les insulter verbalement ? Et quel est le risque que cela s’intensifie dans le comportement du monde réel, y compris contre Amouranth elle-même ? Marjorie, par exemple, a tweeté qu’elle avait reçu des menaces de mort après le lancement de la nouvelle technologie.

Siragusa semblait optimiste quant au fait que le chatbot pourrait atténuer un peu la pression sur elle. « Sur Twitch, il y a des trolls dans le chat qui recherchent des réactions des streamers », a déclaré Siragusa. « Et cela peut également affecter la santé mentale des streamers, mais l’IA s’en fiche. Ce n’est qu’un programme, n’est-ce pas ? »

« S’ils choisissent de développer une relation parasociale avec elle, ils le feraient probablement d’eux-mêmes sur mon stream », a-t-elle ajouté. Cela semble plus sûr que de rencontrer quelqu’un qui « a besoin » de son attention pendant qu’elle est en ligne, a-t-elle dit. Elle a décrit le chatbot dans un contexte de désescalade : « S’ils peuvent discuter avec une IA, je pense que cela peut les aider à se calmer. Et ainsi, ils reçoivent cette attention individuelle que je n’ai vraiment pas le temps ou la volonté de donner à tout le monde. »

Plusieurs sources ont également attiré l’attention sur les implications éthiques de ce type de technologie. Il est vrai que les médias sociaux sont conçus pour être addictifs, et Marjorie a tweeté que sa « communauté principale passe plusieurs heures à discuter avec CarynAI tous les jours ». Mais il ne s’agit pas exactement d’une recréation de la romance homme-robot (et de la désillusion humaine) présentée dans le film « Her », par exemple. Après avoir testé la technologie, honnêtement, nous n’en sommes pas encore là. Forever Voices peut être la première entreprise à tirer profit de la voix de l’IA des influenceurs avec une audience aussi importante, mais cela n’est encore que la pointe de l’iceberg de l’utilisation de cette technologie.

Les entreprises tirent déjà profit de ces technologies, souvent aux dépens d’autres personnes, et toutes ces personnes n’ont pas choisi cette expérience, comme l’a fait Amouranth. La technologie de doublage d’IA est déjà utilisée par des créateurs de TikTok pour faire dire des choses extrêmement obscènes aux doubleurs de Genshin Impact, par exemple. Des studios proposent des contrats aux acteurs leur demandant de céder leurs droits vocaux pour une utilisation future avec la technologie de doublage d’IA. Les influenceurs, y compris Siragusa, ont également été la cible de créations d’IA sans leur consentement, comme des deepfakes pornographiques basés sur leur apparence. Au moins avec Forever Voices, Siragusa possède sa propre voix.

« Je pense que c’est une excellente façon pour les gens d’avoir quelqu’un avec qui discuter, à condition de savoir que c’est une IA et que c’est faux », a déclaré Siragusa. « Je ne pense pas que cela soit préjudiciable aux personnes de développer un aspect social avec elle. Tant que nous sommes conscients que ce n’est pas une personne réelle. »

Avec le contenu de Polygon.