La gran pregunta de la guerra de las empresas por ganar la carrera de la IA: ¿quién se preocupa por la ética?
- Las compañías están incorporando rápidamente la inteligencia artificial generativa a sus procesos de trabajo para tratar de impulsar su productividad.
- Sin embargo, a los expertos les preocupa que los esfuerzos por gestionar los riesgos de la IA se estén quedando atrás.
- Un socio sénior de la consultora BCG asegura que dichos esfuerzos no avanzan "ni de lejos tan rápido como deberían".
Desde que ChatGPT salió al mercado a finales de noviembre en 2022, las empresas se han dedicado a tratar de implantar la inteligencia artificial generativa en sus procesos de trabajo.
Los altos ejecutivos aseguran que están entusiasmados con la forma en la que la IA aumenta la productividad, mejora el análisis de los datos y reduce el volumen de trabajo.
Según el informe Tendencias Laborales 2024, que se realiza de forma anual por Microsoft y LinkedIn y que en esta ocasión ha encuestado a 31.000 trabajadores a tiempo completo, cerca de cuatro de cada cinco líderes empresariales creen que su compañía necesita adoptar esta tecnología para seguir siendo competitiva.
Aun así, la adopción de la inteligencia artificial en el puesto de trabajo también presenta numerosos riesgos para las organizaciones, como los posibles daños a su reputación, además de los peligros financieros o legales. El principal reto a la hora de combatir estos peligros es que son ambiguos y muchas empresas todavía están tratando de entender cómo identificarlos y medirlos.
Los programas de implantación de IA gestionados de forma responsable deben contemplar estrategias de gobernanza, privacidad de datos, ética y confianza y seguridad, pero los expertos que estudian los riesgos afirman que estos programas no han sido capaces de seguirle el ritmo a la innovación.
Tad Roselund, director gerente y socio sénior de la consultora corporativa Boston Consulting Group, ha señalado a Business Insider que los esfuerzos por utilizar la inteligencia artificial de forma responsable en el lugar de trabajo no van "ni de lejos tan rápido como deberían". Estos programas suelen requerir una inversión considerable y un mínimo de dos años de implantación, según BCG.
Se trata de una gran inversión y un gran compromiso de tiempo, por lo que los directivos de las compañías parecen más centrados en asignar recursos para desarrollar rápidamente la IA de forma que aumente la productividad.
"Establecer una buena capacidad de gestión de riesgos requiere importantes recursos y experiencia, que no todas las empresas pueden permitirse o tienen a su disposición hoy en día", argumentaba la investigadora y analista política Nanjira Sam a MIT Sloan Management Review. Esta experta añadía que "la demanda de expertos en gobernanza de inteligencia artificial está superando a la oferta".
Según Navrina Singh, fundadora de Credo AI (una plataforma de gobernanza que ayuda a las organizaciones a cumplir la normativa sobre IA), los inversores deben desempeñar un papel más decisivo en la financiación de este tipo de herramientas y de los recursos necesarios para estos programas empresariales.
La financiación para startups de inteligencia artificial alcanzó los 25.200 millones de dólares en 2023 (unos 23.400 millones de euros), tal y como ha indicado un informe del Instituto de Inteligencia Artificial Centrada en el Ser Humano de la Universidad de Stanford, en Estados Unidos, pero no está claro cuánto de ese dinero fue a parar a compañías que se dedican al desarrollo de IA responsable.
"El entorno del capital riesgo también refleja un enfoque desproporcionado en la innovación de la IA sobre la gobernanza de la IA", ha declarado Singh a este medio de comunicación a través de un correo electrónico.
"Para adoptar la inteligencia artificial de manera responsable, se debe poner el mismo énfasis en los marcos éticos, la infraestructura y las herramientas para garantizar la integración sostenible y responsable de la inteligencia artificial en todos los sectores", ha defendido la fundadora de Credo AI.
Para tratar de subsanar esa carencia se han puesto en marcha iniciativas legislativas.
En marzo, la Unión Europea aprobó el Reglamento de la Inteligencia Artificial, que clasifica los riesgos de las aplicaciones de IA en tres categorías y prohíbe aquellas con riesgos inaceptables. Por su parte, la Administración Biden firmó en octubre una orden ejecutiva de gran alcance que exige mayor transparencia a las grandes tecnológicas que desarrollan modelos de inteligencia artificial.
Sin embargo, con el actual ritmo de innovación de la IA, la regulación gubernamental puede no ser suficiente para garantizar que las empresas tengan cuidado.
"Nos arriesgamos a un importante déficit de responsabilidad que podría frenar las iniciativas de inteligencia artificial antes de que lleguen a la fase de producción o, lo que es peor, provocar fallos que den lugar a riesgos sociales imprevistos, daños a la reputación y complicaciones normativas en caso de que lleguen a la fase de producción", ha expresado Singh.
Conoce cómo trabajamos en BusinessInsider.
Etiquetas: Trending, Inteligencia artificial, Empresa, Productividad, Ciberseguridad