Por: Andrés Zambrano Díaz*
Hace años, tal vez cuando se introdujo la televisión por cable, me aficioné a ver el canal History Channel. Sabía que casi siempre iba a encontrar algún tipo de contenido que tuviera interés para mí. Con el tiempo lo dejé de lado, en parte porque comenzaron a saturar su programación de teóricos de la conspiración y de contenidos pseudoapocalípticos de dudosa base científica. No quería caer en eso, en aquellos que todo lo sospechan, en los que todavía sostienen que la llegada a la luna del Apolo 11 fue una puesta en escena de un estudio de Hollywood.
La verdad es que me encanta la tecnología, pero también soy consciente de que, desde que se inventó la bomba atómica y la posibilidad de la autodestrucción quedó al alcance de un click, es cada vez más importante aprender a aprovechar las ventajas que traen las tecnologías y mitigar los efectos no previstos, por llamarlo de una manera amable.

Por todo eso, cada día que pasa estoy más convencido de la importancia de la Alfabetización Mediática e Informacional, porque la idea, antes que satanizar tecnologías como las redes sociales y ahora la IA, de lo que se trata es de saber qué hacer con ellas.
En ese sentido, quiero comenzar una serie de post sobre esos efectos no previstos que traen estos adelantos y que están a la orden del día. Comenzaré por un artículo de The New York Times titulado: ‘Un adolescente enamorado de un chatbot se suicidó. ¿Puede responsabilizarse al chatbot?
Te puede interesar: https://www.nytimes.com/es/2025/11/09/espanol/estilos-de-vida/chatbot-suicidio-adolescente.html
Les resumo el asunto. Es la historia de un adolescente que utilizaba una aplicación llamada Character. AI. Una aplicación en la que los usuarios pueden hablar con chatbots que adoptan “el carácter de personajes comunes, como “terapeuta” o “profesor malvado”, o personas famosas y personajes de ficción”. En el caso de este joven, fue un chatbot que se comportaba como Daenerys Targaryen, uno de los personajes más importantes de las novelas y de la serie ‘Juego de tronos. La tragedia está en que el chico se enamoró del personaje, perdió todo contacto con la realidad y se quitó la vida con la aspiración de reunirse con el personaje de ficción.
Pero la situación tiene un matiz que la diferencia de otros suicidios ligados a la inteligencia artificial. La familia del joven demandó a la empresa alegando que Character.AI era un producto defectuoso y que, por tanto, la compañía que lo fabricó tenía una responsabilidad en lo que pasó. Como sucede cuando se produce un accidente en carro por problemas de diseño.
Pero, como lo dice el artículo, lo novedoso y lo aterrador, es la defensa propuesta por la compañía. “Según sus abogados, las palabras producidas por sus chatbots son expresiones, como un poema, una canción o un videojuego, están protegidas por la Primera Enmienda. No se puede ganar un caso de negligencia contra un orador por ejercer sus derechos establecidos en la Primera Enmienda”.
No soy abogado, ni conozco la legislación de Estados Unidos, pero el solo hecho de que se considere una creación artística, el producto de un chatbot nos pone a un paso de que un chatbot puedan ganar el premio nobel de literatura en el futuro, sin olvidar que el juguetico ya cobró una vida.
También te puede interesar: https://educalidad.com/reparar-las-redes-el-llamado-del-papa-a-la-alfabetizacion-mediatica
*Miembro del Equipo Educalidad




































