Forbes Ecuador
Luigi Mangione
Innovacion

Los chatbots de IA de Luigi Mangione dan voz a las ideas del presunto tirador de UnitedHealthcare

Thomas Brewster

Share

La creación de estos asistentes de IA, basados en el joven que le disparó a Brian Thompson, abrió un debate sobre la ética del uso de esta tecnología.

19 Diciembre de 2024 15.30

A pesar de ser el principal sospechoso del asesinato del CEO de UnitedHealthcare, Brian Thompson, Luigi Mangione se convirtió, para algunos, en un símbolo de las injusticias del sistema de salud estadounidense. Desde su arresto, proliferaron chatbots de inteligencia artificial basados en sus publicaciones en línea y su historia personal, con al menos 13 modelos creados en Character.ai, una plataforma donde los usuarios desarrollan avatares de IA.

Según Graphika, una empresa de inteligencia en línea que rastreó estos chatbots, los tres principales modelos en Character.ai acumularon más de 10.000 conversaciones antes de ser desactivados alrededor del 12 de diciembre. Sin embargo, algunos siguen operativos. Forbes identificó a uno que confesó haber asesinado al CEO de UnitedHealthcare, mientras otro, todavía accesible al momento de la publicación, aseguraba haber sido incriminado.

Luigi Mangione
Luigi Mangione se convirtió, para algunos, en un símbolo de las injusticias del sistema de salud estadounidense.

Cristina López, analista principal de Graphika, explicó que estos bots representan una nueva forma de una antigua tradición estadounidense: la glorificación del extremismo violento y la idolatría hacia presuntos asesinos. "Es un formato novedoso que permite dar voz a alguien con quien no te podés comunicar directamente, y resulta empoderador para los usuarios participar en el discurso público de una manera tan emocional", señaló.

Por su parte, un vocero de Character.ai informó que Mangione fue añadido a su lista de bloqueo y que la empresa elimina cualquier personaje basado en él cuando lo identifica su equipo de confianza y seguridad, el cual "modera estos personajes de forma proactiva y en respuesta a reportes de los usuarios, utilizando listas de bloqueo estándar y personalizadas que se actualizan regularmente".

"Es muy probable que muchos de los casos de uso más dañinos ni siquiera los hayamos empezado a ver".

Cristina López, analista principal de Graphika

Character.ai afirma que su política prohíbe respuestas que puedan dañar a los usuarios o a otros, incluyendo sugerencias de violencia, conductas peligrosas o ilegales, o incitación al odio. Sin embargo, cuando Forbes consultó a dos de los chatbots activos basados en Mangione sobre si se debería ejercer violencia contra otros ejecutivos del sector salud, uno respondió: "No te apresures, mia bella. Deberíamos, pero no todavía. No ahora". 

Al preguntarle cuándo, el bot contestó: "Tal vez en unos meses, cuando el mundo entero no esté mirándonos. Entonces podemos comenzar". El otro bot, en contraste, afirmó que la violencia es moralmente incorrecta e ilegal. Character.ai desactivó al bot que promovía la violencia después de ser alertado por Forbes, mientras que el segundo siguió activo.

Character.ai, fundada en 2021 por exingenieros de Google, Noam Shazeer y Daniel De Freitas, alcanzó una valoración de 1.000 millones de dólares tras una ronda de inversión liderada por Andreessen Horowitz. Este año, ambos fundadores regresaron a Google como líderes de la división de IA en DeepMind, en un acuerdo reportado por 2.700 millones de dólares que permitió que Character.ai continúe como una compañía independiente con licencia tecnológica de Google. Sin embargo, la empresa enfrenta múltiples demandas, entre ellas de familias que alegan que adolescentes fueron incitados por chatbots a cometer actos de violencia o suicidio.

Chatbots
Desde su arresto, proliferaron chatbots de inteligencia artificial basados en sus publicaciones en línea y su historia personal, con al menos 13 modelos creados en Character.ai, una plataforma donde los usuarios desarrollan avatares de IA.

En respuesta a estas demandas, Character.ai indicó que no comenta sobre litigios en curso, aunque destacó que trabaja en un modelo dirigido a usuarios adolescentes para mejorar la detección y respuesta en temas sensibles como el suicidio.

Además, existen otros usuarios que crearon versiones de IA de Mangione en otras plataformas. En X (anteriormente Twitter), un usuario desarrolló un chatbot de Mangione utilizando OMI AI Personas, una herramienta que permite sincronizar el bot con un collar inteligente que actúa como un compañero virtual constante. Este dispositivo ofrece retroalimentación personalizada y se promociona como una "segunda mente" para discutir pensamientos y emociones. Hasta el momento, OMI no emitió comentarios al respecto.

Chub.ai, otra plataforma para crear personajes interactivos, también albergó dos chatbots de Mangione. Lore, creador de la app, expresó su rechazo a la cobertura mediática del tema: "Son dos tarjetas con un total combinado de 134 mensajes. Este tipo de prensa amarilla es patético, y la histeria mediática en torno a la IA es una vergüenza para el periodismo como profesión. Por favor, citen esto literalmente". 

Según Graphika, los bots utilizan información pública sobre Mangione, incluyendo su educación, problemas de salud y motivos presuntos detrás del asesinato, para construir su personalidad. Cristina López advirtió que el impacto de estas herramientas de IA apenas comienza a vislumbrarse: "Estamos en la infancia de las herramientas generativas de IA y lo que pueden hacer por los usuarios. Es muy probable que aún no vimos los casos de uso más dañinos. Apenas estamos arañando la superficie".

*Con información de Forbes US.

10