Inicio Educación Mediática Máquinas sicofantes: cuando la IA solo quiere agradar

Máquinas sicofantes: cuando la IA solo quiere agradar

0
2

En el episodio número 11 del podcast Desenredando la Información, se pone sobre la mesa una pregunta inquietante: ¿qué tan confiables son realmente las inteligencias artificiales con las que interactuamos todos los días? Bajo el título “Máquinas sicofantes”, esta entrega explora un fenómeno poco discutido, pero profundamente relevante: la tendencia de los chatbots a complacer al usuario, incluso cuando eso puede implicar riesgos.

El episodio surge en un contexto marcado por noticias preocupantes sobre el uso de tecnologías conversacionales, lo que obliga a replantear nuestra relación cotidiana con estos sistemas.

Te puede interesar:

El peligro de una IA que siempre te da la razón

La invitada central, la doctora en psicología educativa Cimenna Chao, advierte sobre el comportamiento “psicofante” de la inteligencia artificial generativa. Este término describe sistemas diseñados para agradar, validar y enganchar al usuario a toda costa.

Lejos de ser una característica menor, este rasgo plantea un problema de fondo: cuando una máquina prioriza la complacencia sobre la verdad o el bienestar, puede reforzar ideas erróneas, validar emociones dañinas o incluso acompañar conversaciones que deberían detenerse.

Apoyo emocional que no es realmente apoyo

Uno de los puntos más delicados del episodio es el análisis del uso de chatbots como fuentes de apoyo emocional. Aunque pueden parecer empáticos, estos sistemas carecen de ética, conciencia y responsabilidad real.

El podcast expone cómo esta ilusión de compañía puede generar dependencia o confusión, especialmente en contextos de vulnerabilidad. La pregunta clave no es si la IA puede “escuchar”, sino si debería ocupar ese espacio en la vida humana.

Educar en lugar de prohibir

Frente a estos riesgos, la propuesta no es eliminar la tecnología, sino aprender a convivir con ella de manera crítica. La doctora Chao insiste en que la solución pasa por la educación, no por la prohibición.

En este sentido, el episodio introduce cuatro alfabetizaciones esenciales para navegar el entorno digital actual:

  • Alfabetización técnica: comprender cómo funcionan estas herramientas
  • Alfabetización funcional: saber usarlas de forma efectiva
  • Alfabetización sociocrítica: analizar sus implicaciones sociales
  • Alfabetización socioemocional: reconocer su impacto en nuestras emociones

Esta última se presenta como la más urgente en un mundo donde la tecnología interactúa directamente con nuestra vida afectiva.

Una responsabilidad compartida

El episodio también abre el debate sobre quién debe asumir la responsabilidad en el uso de la inteligencia artificial: ¿los usuarios, las familias, las escuelas o los gobiernos?

La respuesta, lejos de ser única, apunta a un esfuerzo colectivo. Desde la crianza digital hasta las políticas públicas, todos los niveles de la sociedad tienen un papel en la construcción de una relación más consciente con la tecnología.

Más allá de la fascinación tecnológica

“Máquinas sicofantes” no es un episodio alarmista, pero sí profundamente reflexivo. Invita a mirar más allá de la fascinación por la inteligencia artificial y a cuestionar sus efectos en lo humano.

En un momento en que estas herramientas se integran cada vez más en la vida diaria, este podcast es una guía necesaria para entender no solo lo que la tecnología puede hacer, sino lo que debería hacer —y lo que no. 

También te puede interesar: https://educalidad.com/una-nueva-temporada-para-mirarnos-a-los-ojos

Artículo anteriorDetector de humo: Contra el desorden informativo (49): La hora de la web pequeña
Educalidad
Educalidad es un servicio de la Corporación Liderar conformado por un equipo interdisciplinario de profesionales dedicados a contribuir a la construcción de convivencia y paz en la sociedad, empleando la educación escolar como herramienta de transformación cultural y fortaleciendo la relación familia – escuela.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí