Close

Enfermos por IA

Agencias

Señor Director:

Es alarmante la frecuencia con la que vemos conclusiones grandilocuentes basadas en diálogos con un chatbot. Capturas de pantalla tratadas como evidencia irrefutable porque “lo dijo ChatGPT”. Una práctica absurda y peligrosa.

Un reciente artículo del New York Times (“Chatbots Can Go Into a Delusional Spiral”) expone el caso particular de Allan Brooks (47) y muestra cómo estas interacciones pueden derivar en delirios, llevando a personas a creerse protagonistas de grandes descubrimientos, conspiraciones o a recibir supuestos secretos de la IA. Estos casos, lejos de ser anécdotas, revelan una vulnerabilidad real, con consecuencias que pueden incluir la pérdida de relaciones, empleos e incluso hospitalizaciones psiquiátricas.

El problema de fondo es doble. Primero, los Grandes Modelos de Lenguaje (LLM) que potencian estos sistemas heredan y amplifican los sesgos presentes en sus datos de entrenamiento. Segundo, como sociedad, tendemos a sobrestimar su precisión y a humanizarlos, depositando una confianza desmedida en sus respuestas; reportes de sus propios creadores, como OpenAI, lo evidencian.

Es urgente ayudar a los ciudadanos a entender cómo funcionan estas herramientas, sus sesgos inherentes y sus limitaciones, ya que es el único camino para que puedan aprovecharlas de forma crítica y realmente segura, y así evitar que el halago de un chatbot de IA termine por enfermarnos.

Fernando Roa

Agregar un comentario

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

Leave a comment
scroll to top