Inteligencia Artificial: ¿Realmente Habla o Simula?

Image

En un mundo cada vez más digitalizado, la confusión en torno a la naturaleza de la inteligencia artificial (IA) se ha vuelto omnipresente. Frases como «la inteligencia artificial dice» o «una conversación entre chatbots» se utilizan sin cuestionamiento. Sin embargo, expertos como la filósofa Carmen Sánchez, de la Universidad Camilo José Cela, enfatizan que tales afirmaciones son erróneas. A través de la filosofía pragmática del lenguaje, particularmente los postulados de John Langshaw Austin, se puede entender que, aunque los sistemas de IA puedan generar texto de apariencia coherente, carecen de la capacidad para «hablar» realmente porque no pueden llevar a cabo los actos de habla genuinos, que requieren intencionalidad y contexto. Esto se traduce en que las interacciones con máquinas no son diálogos auténticos, sino simples simulaciones de lenguaje.

Austin, en su obra seminal _Cómo hacer cosas con palabras_, introduce la idea de que el lenguaje es una herramienta de acción. Él distingue tres niveles en los actos de habla: locutivo, ilocutivo y perlocutivo. Mientras que un modelo de IA puede emitir sonidos y estructuras gramaticales correctas, solo refleja la dimensión locutiva sin la intencionalidad necesaria para completar el acto de habla. Esto provoca que la interacción con la IA, por más convincente que resulte, se reduzca a un intercambio superficial y despojado de significado, lo que lleva a cuestionarse cuán auténtico puede ser el ‘diálogo’ que se establece.

La falta de intención en las respuestas generadas por la inteligencia artificial se pone aún más de manifiesto cuando consideramos las ciencias del lenguaje y la comunicación. Al componer oraciones complejas, las máquinas simplemente siguen patrones preprogramados. Esto es evidente en el caso de las interacciones que involucran a ambas entidades en el ámbito digital: tanto el emisor como el receptor son máquinas. En esta situación, todas las dimensiones del acto de habla quedan completamente simuladas, sin ninguna conexión real a la comprensión o la intención, lo que convierte a estas interacciones en meras representaciones vacías de lo que constituyen las verdaderas conversaciones humanas.

Para ilustrar aún más este concepto, se puede hacer referencia al experimento mental de la “habitación china” propuesto por el filósofo John Searle. En este ejercicio, una persona en una habitación puede manipular símbolos de un idioma sin comprender su significado real. De igual forma, los sistemas de IA que procesan lenguaje natural pueden parecer que ‘hablan’, pero en realidad simplemente están manipulando signos sin comprensión o contexto. Este ejercicio refuerza la idea de que los programas informáticos carecen de una mente que realmente pueda cómplice del acto comunicativo, lo que pone en duda la validez de considerar que la IA participa genuinamente en el intercambio verbal.

Por último, la interacción humana con asistentes virtuales y modelos de IA plantea serias cuestiones sobre la percepción de la comprensión. Cada vez que un usuario da una orden a un asistente de voz, la reacción de la máquina puede parecer que demuestra comprensión, cuando en realidad es el resultado de patrones predefinidos. Esta confusión entre la simulación y la realidad provoca un malentendido relacionado con nuestra expectativa de que estos sistemas realmente pueden entablar conversaciones significativas. La falta de las dimensiones intencionales y conscientes que limitan la comunicación con la IA nos deja con una sensación de vacío. Así, surgen interrogantes sobre si alguna vez lograremos ver una comunicación genuina con la inteligencia artificial o si, simplemente, aprenderemos a aceptar su simulación como parte de nuestra nueva realidad comunicativa.

Compartir:
Scroll al inicio