La adopción masiva de herramientas generativas de IA está descarrilando un factor muy importante, dice el MIT

El rápido ritmo de los avances de la IA está creando una "IA en la sombra", lo que dificulta el uso responsable de la IA, advierte un estudio de MIT Sloan Management Review y BCG.


Nuevas plataformas y herramientas de inteligencia artificial (IA) están surgiendo todos los días para ayudar a los desarrolladores, científicos de datos y analistas de negocios. Sin embargo, este rápido crecimiento en la tecnología emergente también está aumentando la complejidad de las constelaciones de IA mucho más allá de la capacidad de responsabilidad y rendición de cuentas en los sistemas de IA.

Esa es la conclusión de una encuesta reciente de 1.240 ejecutivos publicada por MIT Sloan Management Review y Boston Consulting Group (MIT SMR y BCG), que analizó el progreso de las iniciativas de IA responsables y la adopción de herramientas de IA construidas internamente y de origen externo, lo que los investigadores llaman "IA en la sombra".

La promesa de la IA tiene consecuencias, sugieren los autores del estudio, Elizabeth Renieris (Instituto de Ética en IA de Oxford), David Kiron (MIT SMR) y Steven Mills (BCG): "Por ejemplo, la IA generativa ha demostrado ser difícil de manejar, lo que plantea riesgos impredecibles para las organizaciones que no están preparadas para su amplia gama de casos de uso".

Muchas empresas "fueron sorprendidas por la propagación del uso de la IA en la sombra en toda la empresa", observan Renieris y sus coautores. Además, el rápido ritmo de los avances de la IA "está dificultando el uso responsable de la IA y está presionando a los programas responsables de IA para mantenerse al día".

Advierten que los riesgos que provienen de la IA en la sombra cada vez mayor también están aumentando. Por ejemplo, la creciente dependencia de las empresas de un creciente suministro de herramientas de IA de terceros, junto con la rápida adopción de IA generativa (algoritmos (como ChatGPT, Dall-E 2 y Midjourney) que utilizan datos de entrenamiento para generar texto, imágenes o audio realistas o aparentemente objetivos) los expone a nuevos riesgos comerciales, legales y de reputación que son difíciles de rastrear.

Los investigadores se refieren a la importancia de la IA responsable, que definen como "un marco con principios, políticas, herramientas y procesos para garantizar que los sistemas de IA se desarrollen y operen al servicio del bien para los individuos y la sociedad, al tiempo que logran un impacto empresarial transformador".

Otra dificultad proviene del hecho de que varias empresas "parecen estar reduciendo los recursos internos dedicados a la IA responsable como parte de una tendencia más amplia en los despidos de la industria", advierten los investigadores. "Estas reducciones en las inversiones responsables en IA están ocurriendo, posiblemente, cuando más se necesitan".

Por ejemplo, el uso generalizado del chatbot ChatGPT por parte de los empleados ha tomado por sorpresa a muchas organizaciones y podría tener implicaciones de seguridad. Los investigadores dicen que los marcos de IA responsables no se han escrito para "lidiar con el número repentino e inimaginable de riesgos que están introduciendo las herramientas generativas de IA".

La investigación sugiere que el 78% de las organizaciones informan que acceden, compran, licencian o utilizan herramientas de IA de terceros, incluidas API comerciales, modelos previamente entrenados y datos. Más de la mitad (53%) dependen exclusivamente de herramientas de IA de terceros y no tienen tecnologías de IA propias diseñadas o desarrolladas internamente.

Los programas de IA responsables "deben cubrir tanto las herramientas de IA construidas internamente como las de terceros", instan Renieris y sus coautores. "Se deben aplicar los mismos principios éticos, sin importar de dónde provenga el sistema de IA. En última instancia, si algo saliera mal, no le importaría a la persona afectada negativamente si la herramienta se construyó o compró".

Los coautores advierten que, si bien "no existe un escudo para mitigar los riesgos de IA de terceros, o cualquier tipo de riesgo de IA para el caso", instan a un enfoque múltiple para garantizar una IA responsable en el entorno abierto de hoy.


Tales enfoques podrían incluir lo siguiente:

  • Evaluación de las prácticas responsables de IA de un proveedor
  • Lenguaje contractual que exige la adhesión a los principios responsables de IA
  • Precertificación y auditorías de proveedores (cuando estén disponibles)
  • Revisiones internas a nivel de producto (donde una herramienta de terceros está integrada en un producto o servicio)
  • Cumplimiento de los requisitos reglamentarios pertinentes o estándares de la industria
  • Inclusión de un conjunto integral de políticas y procedimientos, como directrices para el desarrollo ético de la IA, marcos de evaluación de riesgos y protocolos de monitoreo y auditoría
  • El espectro de la legislación y los mandatos gubernamentales podría hacer que tales acciones sean una necesidad a medida que se introducen los sistemas de IA, advierten los coautores.

إرسال تعليق

Hola