Puede que la inteligencia artificial acabe esclavizando a los humanos, pero al menos por ahora puedes engañarla como a un niño pequeño…
Todo el mundo coincide en que la inteligencia artificial va a cambiar el mundo, aunque es un proceso que costará décadas. Antes hay un aprendizaje previo, que la IA tiene que superar. Y en muchos casos, aún se mantiene en el nivel de un niño de 3 años…
OpenAI es una desarrolladora de inteligencia artificial sin ánimo de lucro fundada por Elon Musk y otros gurús tecnológicos. Su objetivo es promover y desarrollar una inteligencia artificial ética que trabaje en beneficio de la Humanidad, por eso todos sus proyectos son de código abierto.
Hace un par de meses OpenAI presentó CLIP, una IA diseñada para ver, es decir, para identificar objetos en una foto o un vídeo. CLIP ha desarrollado por su cuenta un sistema neuronal que también usan los humanos, pero que al mismo tiempo es una debilidad, y puede usarse para engañarla o hackearla.
Hace unos años se descubrió que el cerebro humano utiliza lo que los expertos llaman neuronas multimodales. Son neuronas de la vista que reaccionan cuando detectan un determinado tema, pero que no tiene que ser necesariamente una imagen.
Por ejemplo se ha descubierto que mucha gente tiene lo que llaman la neurona Halle Berry: reaccionan cuando ven una foto de la famosa actriz, pero también cuando ven un dibujo o incluso su nombre escrito en letra. Esto no ocurre con otros actores o personas.
Ahora OpenAI ha descubierto que su inteligencia artificial CLIP ha desarrollado sus propias neuronas multimodales, sin que fuera programada para ello. Tras estudiar millones de fotografías, ha desarrollado la neurona Spider-Man: cuando ve una foto o un dibujo de comic de este personaje, o la palabra spider, lo asocia al famoso superhéroe.
Es un descubrimiento importante porque CLIP ha aprendido a ver como los humanos. Pero esto también tiene sus desventajas: OpenAI reconoce que puede usarse para engañar a la IA.
Por ejemplo, otra de sus neuronas multimodales es iPod. Basta con escribir la palabra iPod sobre cualquier objeto para que la IA lo catalogue como un iPod, aunque sea una manzana, como se ve en la foto de apertura.
Lo mismo ocurre con el símbolo $$$, que CLIP lo asocia a una hucha. Si colocamos símbolos $$$ encima de cualquier objeto, la IA lo ve como una hucha de cerdito (piggy bank), aunque no lo sea:
Son ejemplos divertidos, pero hay otros más serios. OpenAI reconoce que la IA tiene neuronas multimodales racistas que asocian a personas de raza negra con delincuencia, o a Latinoamérica con inmigración.
Por supuesto ahora que han descubierto estos errores, los corregirán. Pero es un buen ejemplo de como aún no se puede confiar al 100% en una IA, y más preocupante: cómo la IA puede ser manipulada cuando se conocen sus debilidades.