Nuevos recursos y herramientas para que los responsables de los productos apliquen la IA de forma responsable

Alysa Taylor Vicepresidenta Corporativa de Marketing de Industria, Aplicaciones y Datos de Microsoft
implementar ai

 

A medida que la IA se integra más profundamente en nuestra vida cotidiana, nos corresponde a todos ser reflexivos y responsables en la forma de aplicarla en beneficio de las personas y la sociedad. A medida que esta tecnología vaya madurando, será esencial que todas las organizaciones adopten un enfoque basado en principios para la IA responsable. A medida que los líderes técnicos y de producto buscan adoptar prácticas y herramientas de IA responsable, se presentan varios retos, entre ellos el de identificar el enfoque que mejor se adapte a sus organizaciones, productos y mercado.

Hoy, en nuestro evento de Azure, Put Responsible AI into Practice, nos complace compartir nuevos recursos y herramientas para apoyar a los clientes en este viaje, incluyendo las directrices para los líderes de producto co-desarrolladas por Microsoft y Boston Consulting Group (BCG). Aunque estas directrices son independientes de los propios principios y procesos de la IA responsable de Microsoft, su objetivo es proporcionar orientación para el desarrollo responsable de la IA a lo largo del ciclo de vida del producto. También estamos introduciendo un nuevo panel de IA responsable para los científicos de datos y desarrolladores y ofreciendo una visión de cómo los clientes como Novartis están poniendo la IA responsable en acción.

 

Presentamos diez pautas para que los líderes de producto implementen la IA de forma responsable

 

Aunque la gran mayoría de la gente cree en la importancia de la IA responsable, muchas empresas no están seguras de cómo cruzar lo que comúnmente se conoce como la "brecha de la IA responsable" entre los principios y las acciones tangibles. De hecho, muchas empresas sobrestiman su madurez en materia de IA responsable, en parte porque no tienen claro cómo hacer operativos sus principios.

Para ayudar a abordar esta necesidad, nos asociamos con BCG para desarrollar "Diez directrices para que los líderes de producto implementen la IA de forma responsable", un nuevo recurso para ayudar a proporcionar una orientación clara y práctica para que los líderes técnicos guíen a los equipos de producto mientras evalúan, diseñan y validan sistemas de IA responsables dentro de sus organizaciones.

"Los principios éticos de la IA son necesarios pero no suficientes. Las empresas necesitan ir más allá para crear cambios tangibles en la forma en que se diseñan y construyen los productos de IA", dice Steve Mills, Jefe de Ética de la IA, BCG GAMMA. "El activo que nos asociamos con Microsoft para crear empoderará a los líderes de producto para guiar a sus equipos hacia un desarrollo responsable, identificando y mitigando proactivamente los riesgos y amenazas."

Las diez directrices se agrupan en tres fases:

  1. Evaluar y preparar: Evaluar las ventajas del producto, la tecnología, los riesgos potenciales y el equipo.
  2. Diseñar, construir y documentar: Revisa los impactos, las consideraciones únicas y la práctica de la documentación.
  3. Validación y apoyo: Seleccione los procedimientos de prueba y el apoyo para garantizar que los productos funcionan como se pretende.

Con este nuevo recurso, esperamos que más empresas de todos los sectores adopten la IA responsable en sus propias organizaciones.

Lanzamiento de un nuevo cuadro de mando de IA responsable para científicos de datos y desarrolladores

 

Poner en práctica principios éticos como la equidad y la transparencia en los sistemas de IA es uno de los mayores obstáculos para escalar la IA, por lo que nuestros equipos de ingeniería han infundido capacidades de IA responsable en los servicios de Azure AI, como Azure Machine Learning. Estas capacidades están diseñadas para ayudar a las empresas a construir sus sistemas de IA con equidad, privacidad, seguridad y otras prioridades de IA responsable.

Hoy nos complace presentar el panel de control de IA responsable (RAI ) para ayudar a los científicos de datos y a los desarrolladores a comprender, proteger y controlar más fácilmente los datos y modelos de IA. Este panel incluye una colección de capacidades de IA responsable, como la interpretabilidad, el análisis de errores, la contrafactualidad y la inferencia casual. Ya disponible de forma general en código abierto y ejecutado en Azure Machine Learning, el cuadro de mandos RAI reúne las herramientas de IA responsable más utilizadas en un único flujo de trabajo y lienzo visual que facilita la identificación, el diagnóstico y la mitigación de errores.

 

Poner en marcha la IA responsable

 

Organizaciones de todos los sectores ya están trabajando con las capacidades de IA de Azure, incluidas muchas de las herramientas de IA responsable que forman parte del panel de IA responsable.

Un ejemplo es Novartis, una empresa líder en el sector de los medicamentos, que a principios de este año anunció sus ocho principios para el uso ético de la IA. Novartis ya está integrando la IA en el flujo de trabajo de sus asociados y tiene muchos casos en toda la cadena de valor en los que la IA se utiliza en las operaciones diarias. Dado que la IA desempeña un papel tan importante en su estrategia digital, la IA responsable de Microsoft es una pieza integral para garantizar que los modelos de IA se construyan y utilicen de forma responsable.

"Este tablero de control de la IA permite a nuestros equipos evaluar la precisión y fiabilidad de los sistemas de IA, en consonancia con nuestro marco para el uso ético de la IA, para garantizar que son apropiados para el contexto y el propósito previstos, así como la mejor manera de integrarlos con nuestra inteligencia humana" -NimitJain, Jefe de Ciencia de Datos, Novartis

Otro ejemplo es el de Philips, una empresa líder en tecnología sanitaria, que utiliza Azure y el conjunto de herramientas Fairlearn para mejorar la equidad general de sus modelos de aprendizaje automático y mitigar los sesgos, lo que conduce a una mejor gestión del bienestar y la atención de los pacientes. Y Scandinavian Airlines, un cliente de Azure Machine Learning, confía en la interpretabilidad en su unidad de detección de fraudes para entender las predicciones de los modelos y mejorar la forma de identificar patrones de comportamiento sospechoso.

 

¿Se perdió el evento digital? Descargue las directrices y la herramienta

 

Aunque todos estamos todavía navegando por este camino, creemos que estos nuevos recursos nos ayudarán a dar un paso reflexivo hacia la aplicación de la IA responsable. Si te perdiste el evento, asegúrate de ver la grabación y descargar los recursos disponibles. Junto con Microsoft, pongamos en práctica la IA responsable.