Skip to content Skip to sidebar Skip to footer

Enfermos por IA

Señor Director:

Es alarmante la frecuencia con la que vemos conclusiones grandilocuentes basadas en diálogos con un chatbot. Capturas de pantalla tratadas como evidencia irrefutable porque “lo dijo ChatGPT”. Una práctica absurda y peligrosa.

Un reciente artículo del New York Times (“Chatbots Can Go Into a Delusional Spiral”) expone el caso particular de Allan Brooks (47) y muestra cómo estas interacciones pueden derivar en delirios, llevando a personas a creerse protagonistas de grandes descubrimientos, conspiraciones o a recibir supuestos secretos de la IA. Estos casos, lejos de ser anécdotas, revelan una vulnerabilidad real, con consecuencias que pueden incluir la pérdida de relaciones, empleos e incluso hospitalizaciones psiquiátricas.

El problema de fondo es doble. Primero, los Grandes Modelos de Lenguaje (LLM) que potencian estos sistemas heredan y amplifican los sesgos presentes en sus datos de entrenamiento. Segundo, como sociedad, tendemos a sobrestimar su precisión y a humanizarlos, depositando una confianza desmedida en sus respuestas; reportes de sus propios creadores, como OpenAI, lo evidencian.

Es urgente ayudar a los ciudadanos a entender cómo funcionan estas herramientas, sus sesgos inherentes y sus limitaciones, ya que es el único camino para que puedan aprovecharlas de forma crítica y realmente segura, y así evitar que el halago de un chatbot de IA termine por enfermarnos.

Fernando Roa

Empresa Periodística La Discusión © 2025. Derechos Reservados