¿Por qué la inteligencia artificial se equivoca?

Por pantallazo.com.co – Tecnología 

Las inteligencias artificiales conversacionales están al alcance de todo el mundo. No necesitas pagarlas, ni siquiera requieres de un ordenador potente, muchas están totalmente disponibles online y sus resultados son demenciales comparados con cualquier expectativa que pudiéramos tener. Son capaces de redactar poesía con la rima y el tema que queramos y, por si fuera poco, podemos incluso ponerle palos en las ruedas y hacer peticiones absurdas, como que cada verso empiece con una letra consecutiva de la palabra “supercalifragilísticoespialidoso”.

Con estos resultados es relativamente lógico que, para muchos, se hayan vuelto una suerte de oráculo todopoderoso. Hemos suspendido nuestra incredulidad, como en su momento ocurrió con la tele e internet, sin darnos cuenta de que no todo lo que digan será correcto y dependerá de nuestro pensamiento crítico identificar las diferencias entre el contenido riguroso y las invenciones de la máquina. Desde esa perspectiva es normal que nos preguntemos cómo es posible que estas inteligencias artificiales a veces se equivoquen, pero la verdadera pregunta es: ¿Cómo es posible que se equivoquen tan poco? La respuesta no se sencilla, pero tenemos que enfrentarnos a la realidad. Las inteligencias artificiales no son infalibles, pero sí muy convincentes, y según cuál utilicemos serán más o menos convincentes para que aceptemos sus sesgos.

Alucinando pepinillos

Uno de los conceptos que más se han popularizado últimamente en redes sociales es el de “alucinación”, una invención de datos que no corresponden con la realidad. Si le pedimos a ChatGPT, por ejemplo, cuál es la letra de Livin on a Prayer de Bon Jovi, nos devolverá una respuesta completamente absurda. No encajará ni remotamente con la letra original, pero tendrá que ver con el título que le hayamos dado. Y, sin embargo, no hay tanta diferencia técnicamente entre que de la respuesta correcta o no. La diferencia es cómo de clara está la tendencia que sigue para emitir la respuesta. Porque, aunque no nos lo muestren, las inteligencias artificiales no nos dan respuestas secas. El resultado que realmente emiten es probabilístico. No puede decir “esto es un delfín”, dirá: con una probabilidad de tanto o cuánto, estamos ante un delfín. Cuando no hay suficiente información o directamente no está del todo claro qué responder, la inteligencia artificial sigue asignando una probabilidad (aunque baja) de que sea algo aquello que le estamos enseñando.

 

 

 

 

 

 

 

 

 

Pues bien, ante la necesidad de dar una respuesta, seguirá las tendencias como buenamente pueda, encontrando patrones que expliquen lo que está ocurriendo. Esto se conoce como alucinación, aunque encaja más con un concepto médico llamado “fabulación”, donde los pacientes que han consumido grandes cantidades de alcohol acaban teniendo una pérdida de la capacidad de formar nuevos recuerdos y, por lo tanto, completan la realidad con todo tipo de fabulas. Que es lo que más se parece, tal vez, a los errores de las inteligencias artificiales.

Matrices llenas de números

A fin de cuentas, las inteligencias artificiales son números, matrices con columnas y filas llenas de dígitos. Estas matemáticas permiten almacenar información de una forma muy interesante, porque los números de la matriz pueden cambiar si le hacemos las multiplicaciones adecuadas de tal modo que “actualizan” la información que contienen de manera muy eficiente. Podríamos decir que esta manera de “guardar” información matemáticamente es lo suficientemente flexible como para adaptarse y plasmar tendencias que nos resultan útiles. Eso es lo que hace una inteligencia artificial dicho de forma extremadamente burda: encontrar tendencias y adaptarse a la nueva situación para dar la respuesta a esa tendencia que le hemos mostrado previamente.

La moraleja de todo esto, por lo tanto, no es que debamos diseñar inteligencias artificiales más infalibles, que también. Sino que debemos comprender cómo funciona la tecnología que nos rodea para no establecer expectativas inalcanzables o, sencillamente, para que no nos engañen. Las inteligencias artificiales no son pequeñas conciencias eléctricas que reflexionen sobre lo divino y lo humano y tengan cierta comprensión de lo que es cierto y lo que no. Siguen tendencias y lo hacen todo lo bien que puedan a partir de la información que le demos. Si han sido entrenadas con una base de datos incompleta, es posible que se equivoquen y, por supuesto, si le estamos pidiendo algo demasiado complejo o que no queda claro, ocurrirá algo similar.

Durante los últimos años nos hemos acostumbrado a que las inteligencias artificiales mejoren sus resultados de forma exponencial y, en muchas ocasiones, hemos dado por hecho que nuestra percepción de esos resultados también se vería maravillada de manera exponencial. Sin embargo, el CEO de Open AI, la empresa responsable de ChatGPT, declaró hace unos meses, antes de la salida de GPT4, su último lanzamiento, que el producto estaría lejos de cumplir las expectativas que había puesto en él el público general. Al final superó lo esperado, pero una vez más vemos cómo las expectativas son problemáticas cuando hablamos de tecnologías punteras. Por un lado, se debe a que somos malos calculando un crecimiento exponencial como este y, por otro, a que el ritmo de mejora de estos procesos lo marca la dificultad técnica y no la espectacularidad de sus resultados, aunque muchas veces, sobre todo en fases iniciales, suelen ir emparejadas.

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *