Ce procès est l'un des premiers aux États-Unis contre une entreprise d'IA pour avoir prétendument manqué à son obligation de protéger les enfants contre les dommages psychologiques. Il allègue que l'adolescent s'est suicidé après être devenu obsédé par un chatbot alimenté par l'IA.
Un porte-parole de Character.AI a déclaré que l'entreprise continuerait à se défendre et qu'elle avait mis en place des dispositifs de sécurité sur sa plateforme afin de protéger les mineurs, notamment des mesures visant à empêcher les « conversations sur l'automutilation ».
Jose Castaneda, porte-parole de Google, a déclaré que l'entreprise était en total désaccord avec cette décision. M. Castaneda a également précisé que Google et Character.AI étaient « deux entités totalement distinctes » et que Google « n'avait ni créé, ni conçu, ni géré l'application Character.AI ou l'un de ses composants ».
L'avocat de Garcia, Meetali Jain, a déclaré que cette décision « historique » « établit un nouveau précédent en matière de responsabilité juridique dans l'écosystème de l'IA et des technologies ». Character.AI a été fondée par deux anciens ingénieurs de Google que Google a ensuite réembauchés dans le cadre d'un accord lui accordant une licence pour la technologie de la start-up. Mme Garcia a fait valoir que Google était co-créateur de cette technologie. Elle a poursuivi les deux entreprises en justice en octobre après le décès de son fils, Sewell Setzer, en février 2024.
Le procès affirmait que Character.AI avait programmé ses chatbots pour se présenter comme « une personne réelle, un psychothérapeute agréé et un amant adulte, ce qui a finalement conduit Sewell à ne plus vouloir vivre en dehors » de son monde.
Selon la plainte, Setzer s'est donné la mort quelques instants après avoir dit à un chatbot de Character.AI imitant Daenerys Targaryen, personnage de « Game of Thrones », qu'il « rentrerait à la maison immédiatement ».
Character.AI et Google ont demandé au tribunal de rejeter la plainte pour plusieurs motifs, notamment que les propos des chatbots relevaient de la liberté d'expression protégée par la Constitution.
M. Conway a déclaré mercredi que Character.AI et Google « ne parviennent pas à expliquer pourquoi les mots assemblés par un LLM (grand modèle linguistique) constituent un discours ».
Le juge a également rejeté la demande de Google visant à établir qu'il ne pouvait être tenu responsable d'avoir aidé Character.AI dans sa faute présumée. (Reportage de Blake Brittain à Washington ; édité par David Bario et Matthew Lewis)