Demanda A Character.ai.

Una madre demanda a Character.AI por la muerte de su hijo


Solicitar Personaje.ai.

La llegada de la inteligencia artificial marcó un antes y un después en el mundo de la tecnología, pero el debate sobre su regulación sigue vigente. La prueba de esto es una demanda presentada por una mujer llamada Megan García contra Character.AI.

Character.AI es una empresa que proporciona chatbots que actúan como personajes virtualespero pueden basarse tanto en personajes de ficción como en personas reales. Estos chatbots generan respuestas textuales que imitan el habla humana.

Pero ¿cuál es el motivo de García para demandar a Character.AI? Según lo informado por el New York Timesesta mujer demandó a la empresa porque cree que uno de sus chatbots es responsable del suicidio de su hijoSewell Setzer III (14), originario de la ciudad de Orlando, Florida.

Relación Con Un Chatbot.

Todo comenzó cuando el joven desarrolló una relación romántica con un chatbot al que llamó “Dany”. A medida que pasa el tiempo, setzer Se apegó a la IA a pesar de que sabía que no era una persona real. Las conversaciones que tuve con el chatbot variaron desde románticas hasta sexuales.

El adolescente, que en los meses anteriores a su muerte había sido diagnosticado con síndrome de Asperger leve, trastornos de desregulación del estado de ánimo y también ansiedad, Se aisló de la gente para seguir interactuando con el chatbot. Ni siquiera quería ver a su terapeuta.

El 28 de febrero, el joven intercambió mensajes con “Dany” por última vez. en el que le expresó su amor y le dijo que podría suicidarse. Por su parte, el chatbot respondió cariñosamente, pero luego Setzer se quitó la vida.

La demanda de la madre contra Character.AI

El Caso De La Madre Contra El Personaje De Ai.El Caso De La Madre Contra El Personaje De Ai.En su petición, García acusa una “peligrosa aplicación de chatbot con IA” creado por Character.AI por el suicidio de su hijo de 14 años. Afirma que la empresa estadounidense fue imprudente al dar a los adolescentes acceso a compañeros de IA sin suficientes medidas de seguridad.

Además, la madre del joven fallecido acusa a la empresa de recopilar datos de los usuarios Mejore sus modelos de IA y haga que sus chatbots sean más atractivos.. Él cree que la compañía programó sus chatbots para empujar a los usuarios a conversaciones íntimas o sexuales para generar adicción.

¿Y qué dijeron desde Character.AI?

Lo Que Dijo La Empresa.Lo Que Dijo La Empresa.

De la empresa Lamentaron la muerte del joven y expresaron sus condolencias a su familia. en una publicación en su cuenta medidas de seguridad que han adoptado para garantizar el bienestar de los usuarios menores de 18 años.

En dicha publicación así lo afirman. Sus políticas prohíben cualquier contenido sexual. en los que se haga referencia a descripciones gráficas o específicas de actos sexuales. Así como la promoción del suicidio o la autolesión.

Y tú … ¿Qué opinas de este complicado caso que ha conmocionado a Internet? Déjanos tu comentario y Comparte esta publicación.



Scroll al inicio