Hay una frase que me da urticaria nada más oirla: “Ay, pues el otro día ChatGPT / Claude / Gemini / tu IA de confianza me dijo…”. Y ahí empieza la mentira (y el autosabotaje colectivo). No porque la frase sea falsa -la pantalla, efectivamente (y para nuestra desgracia), escupe algo- sino porque convierte un sistema en un sujeto. Le concede intención, criterio, temperamento. Le regala algo parecido a un alma… pero con una inevitable tarifa de suscripción.
Las investigadoras Emily M. Bender y Nanna Inie lo explican sin rodeos: cuando hablamos de la “IA” como si esta fuera una persona, es decir cuando utilizamos verbos como: “razona”, “miente”, “alucina”, “te escucha”, etc. lo que hacemos no es explicarnos mejor. Lo que estamos haciendo, en realidad, es tapar sus límites, inflar expectativas y, sobre todo, borrar responsables. No es un debate filológico. Es política (capitalista) en estado puro: el lenguaje decide quién responde cuando algo sale mal. Y, normalmente, muchas cosas salen mal.
Llamar “inteligencia” a un sistema que produce texto probable es una metáfora. Como decir “nube” a un conjunto de centros de datos que consumen energía, agua y suelo. El problema es que este tipo de metáforas no son inocentes: están reordenando la conversación pública. En el momento en que aceptamos que “la IA decide”, dejamos de preguntar quién la entrenó, con qué datos, para qué, con qué incentivos, dónde se desplegó y quién firma debajo. Las investigadoras Bender e Inie insisten en que este lenguaje pone a la máquina en el asiento del conductor y convierte a empresas y administraciones en meros pasajeros sorprendidos. Y qué casualidad: siempre se sorprenden justo cuando hay que rendir cuentas: ¡El primer sorprendido he sido yo!
“UNDERSTAND”: el pecado original de bautizar bucles con nombres épicos
Esto no ha llegado con la irrupción de ChatGPT ni la fiebre de la IAG. Ya en 1976, el científico computacional Drew McDermott advirtió de un vicio clásico en IA: los wishful mnemonics, o “nombres deseo”. Consiste en bautizar partes del programa con verbos épicos -UNDERSTAND, THINK, GOAL- como si el nombre pudiera transferir al código la cualidad humana que invoca. El resultado es una trampa circular: dejamos de describir mecanismos (“clasifica”, “optimiza”, “predice”) y empezamos a hablar en términos de mente (“entiende”, “razona”), sustituyendo explicación por etiqueta. McDermott proponía un antídoto simple pero efectivo: llámalo “G0034” y mira si todavía puedes convencerte de que eso implementa “comprensión”.
La lección sigue vigente: cuando el lenguaje se adelanta a la realidad técnica, no solo exagera capacidades; también facilita que nadie responda cuando el sistema falla. Sin embargo, la industria ha hecho exactamente lo contrario: ha convertido el bautizo grandilocuente en estrategia de mercado. Hoy, el léxico ya no acompaña al producto: lo arrastra.
La interfaz es teatro y nosotros público fácil
Hoy en día no basta con el léxico: la experiencia está diseñada para reforzar las palabras y lo que nos hacen sentir. Formato chat, turnos de conversación, pronombres en primera persona, tono cercano y confidencial. Todo invita a pensar que hay alguien al otro lado. Bender e Inie lo señalan: incluso si la gente sabe racionalmente que no hay intención, la forma conversacional activa nuestra tendencia a atribuir agencia a cualquier cosa que use lenguaje. Solo hay que ver la cantidad de personas que le dan las gracias a ChatGPT y le piden las cosas por por favor. ¿Educados? Puede. ¿Educados? Puede. ¿Una buena idea? Regular. ¿Ecofriendly? Negativo.
Más allá del chiste de dar o no las gracias a una máquina que escupe palabras, esto tiene consecuencias medibles. Hay investigación reciente que muestra cómo la manera de describir estos sistemas (más o menos antropomórfica) influye en la confianza declarada. Y cuando la confianza sube, sube también el riesgo de sobredependencia: aceptar consejos, delegar verificación, tragar respuestas con la docilidad de quien confunde buena sintaxis con autoridad. Es el viejo problema de la modernidad, pero con emojis: la apariencia de coherencia produce obediencia.
Cuando “la IA” se convierte en coartada
La antropomorfización tiene un efecto especialmente tóxico en instituciones: permite que el error se convierta en niebla. En educación, la herramienta “detecta” plagio o “evalúa” competencias y, si falla, nadie sabe dónde apelar. En recursos humanos, “filtra” candidaturas y el sesgo queda escondido en una caja negra con sonrisa. En servicios sociales, “prioriza” casos y el criterio se vuelve inescrutable. En seguridad, “identifica” riesgos y el daño (muertes de civiles) se atribuye al “algoritmo”.
La frase “la IA se equivocó” funciona como una goma de borrar: elimina al proveedor, al contrato, al responsable de despliegue, al supervisor humano, al regulador que miró para otro lado. Y sin responsables no podemos hablar de democracia, más bien es una tecnocracia de las élites con narrativa.
Aquí Europa se ha olido el problema, pero vamos tarde y con el freno de mano puesto. El artículo 50 del AI Act establece obligaciones de transparencia: por ejemplo, informar cuando una persona está interactuando con un sistema de IA (salvo que sea obvio) y marcar ciertos contenidos sintéticos o manipulados para facilitar su identificación.
Bien. Pero avisar no desactiva el hechizo si el resto del producto está construido para parecer interlocutor, consejero, amigo o un terapeuta low-cost. Puedes poner un cartel enorme diciendo “esto no es una persona”. Da igual: si el producto está diseñado para que tu cerebro lo sienta como alguien, el cartel compite con el diseño. Y el diseño suele ganar por muy listos que nos creamos.
Sintaxis para salvar la democracia
La propuesta no es convertirnos en robots lingüísticos ni prohibir metáforas. Si no queremos que la IAG nos manipule como marionetas, debemos recuperar la atribución correcta. En periodismo, en política pública y en empresa, una regla simple reduce muchísimo el humo: cuando la frase tiene un verbo humano (“decide”, “entiende”, “miente”, “ignora”, “te acompaña”), pregunta: ¿quién es el sujeto real?. Como si esto fuera un ejercicio de sintaxis de libro Santillana.
Casi siempre la respuesta es una combinación muy terrenal: una compañía, un equipo, un contrato, una administración, un directivo, un docente, un juez, un médico, un político. Personas e instituciones que sí pueden (y deben) responder. Hablar bien está lejos de ser un capricho académico: es el primer paso para gobernar la tecnología sin ser gobernados por su marketing feroz.
La IAG, los “superlaboratorios”, los “modelos que razonan”, la promesa de “compañeros” digitales… todo eso tiene un componente técnico, sí. Pero hay otro todavía más decisivo: la batalla por el marco mental colectivo. Y aquí va el punto final: si el idioma oficial lo escribe el departamento de marketing, acabamos votando -sin urna- por la impunidad.