El auge de la IA la ha traído la ciencia y la ingeniería, pero la industria va a desesperarse buscando a humanistas para poder tenerla bajo control

Kansei, un prototipo de robot japonés, reproduce expresiones faciales reaccionando positiva o negativamente a términos que introducen sus investigadores en 2007.
Kansei, un prototipo de robot japonés, reproduce expresiones faciales reaccionando positiva o negativamente a términos que introducen sus investigadores en 2007.

REUTERS/Yuriko Nakao

  • El gran momento que vive la IA tras la explosión de los modelos fundacionales como ChatGPT reabre e intensifica un debate clásico sobre las ramas del conocimiento.
  • Varias expertas abundan en que ingenieros y desarrolladores no son capaces por sí mismos de entender "las consecuencias éticas" de lo que crean.
  • Por esta razón, la industria tecnológica, aunque ha dado pasos atrás en ese sentido, va a tener que buscar a la desesperada humanistas y filósofos para controlar la IA.

La inteligencia artificial es la tecnología de moda. Aunque lleva en desarrollo décadas, la popularidad de herramientas como ChatGPT o DALL-E, modelos capaces de generar textos o imágenes con breves estímulos e indicaciones humanas, ha hecho que todo el mundo empiece a imaginar a lo grande cómo esta tecnología va a transformar el mundo.

En realidad, el concepto se puede resumir en un conjunto de operaciones matemáticas que, con enormes bases de datos —que consultar o con las que entrenarse— es capaz de proponer desde moléculas para medicamentos a recetas para alimentos, de dar las rutas más rápidas en el mundo de la logística, o de reconocer rostros, emociones e incluso "detectar" mentiras.

Esta es, sin duda, una simplificación llevada al extremo. Pero lo cierto es que en la industria tecnológica es donde más están prodigándose este tipo de simplificaciones. Cada vez más, y en especial en debates sobre educación o futuro del trabajo.

Uno de los mantras que más se repiten desde que la popularidad de la IA comenzó a despuntar es que el desarrollo y despliegue de nuevos y punteros sistemas automatizados acelerarían la desaparición de múltiples puestos de trabajo.

En realidad, este dilema lleva oyéndose décadas. El concepto de ludita, por ejemplo, no es nuevo. También estos nuevos despuntes de la IA explican que cada vez se oigan más voces hablando sobre recualificación profesional o directamente sobre jornadas de 4 días o la necesidad de pensar en serio cómo desplegar una auténtica renta básica universal.

Es difícil hacer otro ejercicio de simplificación que intente explicar cómo y por qué el desarrollo de la IA ha aumentado exponencialmente en los últimos lustros. Hay múltiples factores que dan algunas pistas. Desde la solidez y persistencia de miles de equipos de investigación en cientos de universidades de todo el mundo a la mera visión de negocio de las grandes tecnológicas.

En cualquier caso, la IA ya forma parte de las rutinas de cualquier persona. Sin necesidad de tener cualificación alguna, ya estás utilizando —o siendo utilizado por— un algoritmo de recomendación que te sirve la mayoría de contenidos que consumes en tu móvil. Y esto va a seguir yendo a más.

La cuestión es cómo evolucionará la tecnología y cómo transformará la vida de la gente. Para el prestigioso economista Daniel Susskind, la IA va a tener un impacto en el mercado laboral que obliga a mantener de forma urgente debates relacionados con la redistribución de la riqueza, el reparto del poder político y la realización personal que muchas personas encuentran en el empleo.

La IA permite soñar con múltiples futuros posibles. Pero esas ensoñaciones no siempre pueden responderse desde disciplinas tan concretas como la ingeniería o la ciencia computacional. No, cuando las implicaciones que tiene esta tecnología pueden cambiar las sociedades y el mundo en sí mismo.

Hacen falta humanistas y la industria lo sabe.

En los últimos años las grandes empresas han tomado medidas contrarias a la diversidad y a la ética en IA

Sobre los peligros y desafíos de la inteligencia artificial vienen advirtiendo expertos de disciplinas muy diversas desde hace años, en realidad. Pero el foco protagonista se lo ha acabado llevando el magnate Elon Musk, propietario de compañías como SpaceX, X —antes Twitter— o Tesla, tras firmar una carta en la que se pedía una moratoria de 6 meses al desarrollo de esta tecnología.

Ya hace 3 años el multimillonario daba visos de lo que le aterrorizaba: que una IA se apodere del mundo. En aquel momento su preocupación se dirigía a DeepMind, el proyecto de Google. Desde hace meses mira con recelo a OpenAI, una empresa en la que participó en sus inicios.

En general, todas las grandes tecnológicas compran el discurso sobre una IA responsable y ética. Son conscientes del poder que manejan estas nuevas herramientas, de ahí que, al margen de su lobby en la Unión Europea, todas por lo general den la bienvenida al inminente Reglamento de la Inteligencia Artificial que se cocina en Bruselas.

Pero una cosa es lo que digan y defiendan públicamente, o los compromisos que pretendan adquirir con la sociedad, y otra bien distinta es la realidad. Sin ir más lejos: Google descabezó en febrero de 2021 a su departamento de ética en la inteligencia artificial con los despidos de, primero Timnit Gebru, y después Margaret Mitchell. 

Daniel Susskind, experto en futuro del trabajo e IA.

Aquel mismo año se conoció un informe de BCG que advertía cómo las empresas que implementaban sistemas de control éticos sobre sus modelos IA tendían a sobrevalorar sus esfuerzos, y la experta española Gemma Gadon, fundadora de una consultora y auditora de algoritmos, Eticas, fue tajante en una entrevista con este medio.

"La ética ya no es sostenible como discurso, hay que pasar a la acción", adujo entonces.

El propio Satya Nadella, CEO de Microsoft, acudió hace unos días a Berlín para recoger el premio Axel Springer de este año (Axel Springer España, editora de Business Insider España, pertenece a Axel Springer). En el acto, el directivo tecnológico enfatizó que la llegada de la IA redoblaría la importancia que tienen otras habilidades humanas, como por ejemplo el pensamiento crítico.

Muchos de los debates éticos que suscitan la implantación de sistemas algorítmicos o la automatización de toma de decisiones pueden responderse desde la legislación. La Unión Europea avanza en las negociaciones tripartitas del Reglamento de la IA que podría ver la luz inminentemente, aunque los últimos cambios no convencen a colectivos sociales.

Colectivos que, por ejemplo, denuncian cómo muchos de los preceptos que se vetarán —casos de usos de IA de alto riesgo— dentro de las fronteras comunitarias no se vetarán para proteger esas mismas fronteras. Hay expertas que ya abundan en la idea de la Unión Europea como una fortaleza panóptico, como esas cárceles circulares con un gran torreón de vigilancia en el centro.

Mientras las críticas se multiplican y el debate se hegemoniza, la industria tecnológica es consciente de que tiene una carestía de profesionales capacitados para lidiar con estos temas.

Eso se abordó hace días en el enlightED, un evento que reunió a 2.500 profesionales del mundo de la educación centrado en el papel que tendrá la inteligencia artificial en los planes formativos de todo el planeta. Pero en esta ocasión, una mesa redonda no repitió los conocidos mantras de que faltan profesionales cualificados.

Más bien se enfatizó en la idea de que hay muchas personas que pueden llegar a la industria a aportar sus conocimientos sin necesidad de ser ingenieros informáticos.

Sin embargo, el problema de fondo sigue ahí: "No saben cómo pensar en las consecuencias éticas de lo que crean"

La primera vez que se entendió de la necesidad de contar con profesionales humanísticos en la industria tecnológica fue en el sector del automóvil. 

Los profesores de Stanford y de la Universidad Estatal Politécnica de California, Chirs Gerdes y Patrick Lin, realizaron un taller con colegas del mundo de la filosofía para abordar los dilemas éticos que propicia el desarrollo de los vehículos autónomos. Las preguntas eran tan sucintas como evidentes: ¿puede una máquina decidir éticamente si atropellar a alguien para salvar a su pasajero?

Esta iniciativa multidisciplinar se conoció hace casi 10 años. Hoy, la aplicación del conocimiento de filósofos, sociólogos y humanistas se ha naturalizado mucho. Sin ir más lejos, Carissa Véliz es filósofa y autora de un best seller sobre la importancia de la privacidad en la era digital.

En la mesa redonda de enlightED que tuvo lugar hace días en Madrid sucedió lo propio. En la misma participó Alessandra Sala, presidenta global de Women in AI, miembro del consejo asesor del CeADAR —centro público irlandés sobre análisis de datos aplicados e inteligencia computacional— y del World Ethical Data Forum.

Sala detalló en su exposición cómo en el centro de investigación irlandés en el que participa comenzaron a impartirse cursos de formación sobre ética en IA "porque muchas veces los estudiantes de ingeniería informática se han acostumbrado a aprender estadísticas y procesos, pero no saben cómo pensar en las consecuencias éticas de lo que crean".

"La única forma de ayudarles en este sentido es enseñándoles lo que significa cuestionar un sistema, cuestionar sus propias hipótesis y descubrimientos e intentar hacerles entender las consecuencias que puede tener para el ser humano estas tecnologías, porque tiene consecuencias que nos afectan a todos", remachó.

Para Sala, es urgente y necesario que en la industria tecnológica exista más diversidad. Sobre todo, porque como múltiples expertos vienen avisando desde hace lustros, una mayor diversidad en el sector se traduciría en modelos algorítmicos que, por lo menos, evitarían reproducir sesgos racistas o de género y clase que en muchos casos se reproducen.

La razón por la que se reproducen esos sesgos no es otra que el hecho inapelable de que los desarrolladores, en su mayoría hombres caucásicos, no se detienen, como explicaba Sala, a valorar el impacto que sus tecnologías puede tener en un sinfín de colectivos de la sociedad. Y no es necesariamente culpa de estos expertos: no han tenido la formación.

Es algo sobre lo que también se pronunció Yann Bonnet, exjefe de gabinete de la agencia francesa de ciberseguridad y profesor en la Sciences Po de París sobre desafíos tecnológicos, políticos y humanos en seguridad digital. "No podemos dar respuesta a las ciberamenazas sin las personas adecuadas".

"El trabajo [en ciberseguridad] es más diverso que en el pasado. En Francia se suele pensar que la única forma de trabajar en ciberseguridad es siendo ingeniero y lo cierto es que con las carencias que hay, ahora lo que hacen más falta son técnicos avanzados que ingenieros". Eso abre la puerta a un montón de profesionales que pueden liderar las nuevas tecnologías desde grados de FP.

La persona que se encargó de moderar el debate fue Francesca Borgonovi, responsable de Análisis de Habilidades en el Centro de Habilidades de la OCDE, además de profesora adjunta en la Escuela de Asuntos Globales de la Sciences Po. "Cuando la gente busca profesionales de la IA no busca necesariamente actitudes técnicas", remachó.

"Las capas superiores del mercado buscan realmente una gama de capacidades amplia que incluye por supuesto técnicas pero también actitudes blandas o soft skills, que no son para nada blandas y que involucran la capacidad de resolver problemas, comunicarse con otros y trabajar en equipo para encontrar soluciones".

A fin de cuentas, las últimas disrupciones en el ámbito de la IA han maravillado a toda la sociedad. Pero a la hora de pensar en frío en sus implicaciones surgen muchas dudas. El economista Daniel Susskind, autor de Un mundo sin trabajo, dijo hace pocos días, también en el marco del enlightED de Madrid, que se pensara en la IA en el ámbito médico.

"He mencionado sistemas que se pueden utilizar para hacer diagnósticos médicos. Pero pensemos, ¿nos sentiríamos cómodos si los sistemas fuesen los que se encargaran de tomar la decisión de apagar máquinas de soporte vital en hospitales, en base a la eficiencia de la ocupación de plantas?", preguntó.

"Las barreras a nivel técnico, moral, cultural y social serán las que realmente determinarán si estas tecnologías se adoptan o no". Y para eso no es suficiente un ingeniero ni un experto en hard skills. Hace falta acabar con la dicotomía ciencias y letras: las ramas del conocimiento están condenadas a entenderse una vez más.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.