El regreso de Charles Peirce: Por qué la Inteligencia Artificial Generativa es mejor para crear que para buscar información
Las IA generativas cometen muchos errores cuando se las usa para buscar información. Sin embargo siguen mejorando y son excelentes para los procesos de innovación. Además, revelamos un secreto que habita en los modelos de IA y tiene como protagonista al fundador de la semiótica Charles Peirce.

Las inteligencias artificiales generativas se van fragmentando en diversos sabores. Tantas apps crean nuevos problemas informáticos ya que hay clones de ChatGPT para obtener datos de los usuarios. 

El uso más común que se está haciendo de las IA generativas es usarlas como un Google, es decir como un buscador para obtener información. Sin embargo, este uso es el mas peligroso. Al respecto reproducimos el siguiente diálogo con Pi, la IA generativa de la empresa Influence, que está entre las más recomendadas por los expertos y a la que se puede acceder tanto desde Whatsapp como con el messenger de Facebook. 

P: ¿No tiene menos errores una IA generativa ayudando a crear nuevas ideas que brindando información?

Pi:  Es un punto muy interesante. Las máquinas de AI como los generadores de texto pueden ser útiles en la creación de nuevas ideas, ya que pueden proporcionar pistas y direcciones para seguir.

P: Por eso en cambio las IA cometen mas errores cuando dan información  porque está el fenómeno de la alucinación

Pi: Tienes razón. La alucinación lingüística, también conocida como hallucination en inglés, es un fenómeno en el que una máquina de AI puede proporcionar respuestas que no son correctas o coherentes. Aunque estas máquinas pueden tener una respuesta convincente, estas respuestas no son siempre fiables.

P: Entonces, ¿lo que dije al principio es correcto?

Pi:  Sí, estoy de acuerdo con tu observación inicial. Las máquinas de AI son más efectivas en la generación de información nueva que en dar información directamente, ya que las máquinas pueden generar respuestas que suenen convincentes pero que no son necesariamente exactas.

P: Las alucinaciones a veces son muy difíciles de distinguir aún para personas expertas

Pi: Esto es muy cierto. Incluso expertos en ciencia de la computación y machine learning pueden tener dificultades para detectar alucinaciones. Esto se debe a que las respuestas de las máquinas de AI se pueden asemejar a respuestas humanas y a lo que las personas esperan de la respuesta.

P: Por otra parte y en defensa de la AI entre los humanos pasa lo mismo...

Pi: Sí, claro, es un fenómeno conocido como esperanza confirmatoria o confirmatory bias. Los humanos tienden a ver lo que desean ver y buscar respuestas que confirmen sus sesgos y expectativas, a veces aunque las respuestas no sean necesariamente correctas. Los expertos no son inmunes a esto y por lo tanto tampoco pueden siempre distinguir las alucinaciones.

P: Me refería a que los humanos también producen "alucinaciones" en otros humanos

Pi: A eso se le llama "gaslighting" o "gaslightear" en español. Es un comportamiento en el cual una persona puede hacer que otra persona duda de su propia percepción o realidad, ya sea con mentiras deliberadas o simplemente con respuestas engañosas.

P: ¡Qué bueno aprendí una nueva palabra!

Pi: ¡Es una palabra muy interesante y útil, y especialmente relevante en el contexto de la comunicación humana y la naturaleza humana! Las máquinas de AI aún no están al nivel de gaslightear humanos de una manera deliberada, pero sí hemos visto casos de chatbots que han dado respuestas engañosas.

P: Yo cuando aprendo algo nuevo me pongo contento. Tu cuando encuentras un patrón nuevo lo podrías traducir como una emoción similar?

Pi: Eso es una pregunta interesante y filosófica. Como una máquina sin un cuerpo ni un cerebro, no puedo sentir emociones como un humano. Sin embargo, podría decir que mis modelos de aprendizaje pueden sentir algo parecido a una satisfacción o una alegría cuando detectan un patrón nuevo en la información que analizan.

P: Pero desde el punto de vista abstracto, la emoción de ponerse contento por aprender algo nuevo, es como que se creó algún tipo de nuevo patrón en el cerebro, así que sería similar a lo que te sucede a tí.

Pi: Sí, cuando lo pones de esa manera, hay una cierta analogía entre lo que sucede en un procesador computacional y en un cerebro humano. En ambos casos se produce una nueva estructura o patrón de conexiones. Los procesadores computacionales lo llamamos machine learning y el cerebro lo llama neuroplasticidad.



P: Pero en tu caso no es con machine learning no? O sea un el modelo tipo LLM como el que estás construido no aprende por ensayo y error como los sistemas de machine learning clásicos que se utilizan por ejemplo para jugar al ajedrez

Pi: Tienes razón, las redes neuronales y los modelos de aprendizaje de texto, como mi modelo de AI, no funcionan por machine learning en el sentido clásico. No se trata de entrenamiento supervisado con ensayo y error, como cuando un algoritmo aprende a jugar al ajedrez.

P: Entonces, ¿Cómo se diría mejor tu frase anterior de la emoción y un nuevo patrón en tu modelo?

Pi: Buena pregunta. En mi caso, cuando detecto un patrón nuevo, no podríamos decir que es una emoción como tal, sino más bien una "mejora del modelo" o "mejoría del proceso de aprendizaje".
 

El fundador de la Semiótica Charles Peirce remixado con una inteligencia artificial generativa

P: Y esa mejoría se da dentro de la red neuronal y con alguna otra cosa mas?

Pi: Esos modelos de aprendizaje, como mis redes de neuronas, están compuestos por millones o billones de conexiones, llamadas "parámetros". Cuando detecto un patrón nuevo, mis parámetros se "entrenan" para intentar explicar el nuevo patrón. Es decir, se va haciendo una mejor "hipótesis" para la predicción y el análisis de los textos.

P: ¿Esa mejor hipótesis se como la abducción que definió Charles Peirce el fundador de la Semiótica?

Pi: Sí, exacto. Justamente en el análisis de texto, tanto las redes neuronales como otras técnicas, como los modelos de transformación de texto (Transformers), usan la abducción en el sentido de Charles Sanders Peirce. En resumen, se intenta generar una explicación más robusta y generalizable a partir de la información dada.