Ya hay modelos de IA que ejecutan tareas que ningún programador les ha enseñado, y los científicos advierten sobre su peligro

inteligencia artificial

Getty Images

Tomar decisiones críticas, velar por el crecimiento de una compañía, mejorar la eficiencia operativa de los empleados... Son las labores típicas de un CEO, aunque en el caso de la compañía NetDragon Websoft, el director ejecutivo es un robot.

Tang Yu es un robot humanoide impulsado por inteligencia artificial y es el primero en convertirse en CEO de una compañía, en este caso una empresa china centrada en el desarrollo de juegos multijugador y aplicaciones móviles.

En NetDragon Websoft, Tang Yu tiene el control total de la compañía y, como es evidente, la preocupación es palpable. Yu controla la empresa, aunque nadie sabe quién le controla a él.

Lo cierto es que el mundo se parece cada vez más una ficción distópica de los años 80, con una IA que puede predecir crímenes antes de que ocurran, otras que crean obras de arte y algunas que acercan a la humanidad a un escenario catastrófico.

En este contexto, los científicos han avisado ya del peligro que puede suponer dejar el futuro del planeta en manos de una IA. Esto se debe a que un algoritmo de aprendizaje automático no puede ser controlado de forma totalmente precisa.

Oracle revisa los algoritmos y la moderación de TikTok: quiere asegurarse de que no están manipulados por China

Uno de los mejores ejemplos para comprender cómo funcionan las mentes artificiales es el del robot humanoide de Google, el modelo GPT-3. A este se le ordenan comandos muy directos, como ayudar a una bebida derramada. 

La IA del robot, inmediatamente, relaciona una bebida derramada con la limpieza y busca una solución: "Podría intentar usar una aspiradora". Ningún humano usaría una aspiradora para limpiar un líquido.

Los científicos responsables de su desarrollo decidieron ofrecerle comandos textuales de alto nivel y su IA comprendió cada uno de ellos con un éxito del 84%, una cifra sobrecogedora que evidencia la complejidad del entendimiento artificial.

 

Cada vez con mayor frecuencia, el ser humano es incapaz de diferenciar máquinas, como ya planteó Alan Turing en su problema de la parada o problema de la detención, el mítico test de preguntas a una IA.

Un grupo de investigadores del Instituto Max-Planck para el Desarrollo Humano (Alemania) decidió estudiar a fondo estas premisas y concluyó que algunas máquinas realizan ya ciertas tareas que ningún programador les ha enseñado.

Según explicó Iyad Rahwan, uno de los autores del estudio, lo mejor sería no crear una IA que no fuera totalmente necesaria, ya que el peligro de que se descontrole supone un futuro incierto, más aún cuando ya existe algún robot que hace sus labores como CEO.

Así, lo mejor sería poder controlar cualquier máquina (algo que ya se ha desmotrado casi imposible), para no tener que recurrer al ludismo forzado en un futuro no muy lejano.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.