30 Herramientas de IA Responsable Lanzadas por Microsoft en el Último Año
Microsoft ha publicado su informe inaugural sobre prácticas de inteligencia artificial (IA) responsable del año pasado, en el que destaca el lanzamiento de 30 herramientas de IA responsables con más de 100 funciones para respaldar el desarrollo de IA por parte de sus clientes.
Informe de transparencia de IA responsable
El informe se centra en los esfuerzos de Microsoft para construir, respaldar y hacer crecer productos de IA de manera responsable, y forma parte de los compromisos de Microsoft después de firmar un acuerdo voluntario con la Casa Blanca en julio.
Herramientas de IA responsables
Microsoft afirma que sus herramientas de IA responsables están diseñadas para mapear y medir los riesgos de la IA y luego gestionarlos con mitigaciones, detección y control en tiempo real, filtrado y supervisión continua.
Herramienta de identificación de riesgos de Python Pyrit
En febrero, Microsoft lanzó Pyrit, una herramienta de equipo rojo de acceso abierto para IA generativa que permite a los profesionales de seguridad y a los ingenieros de aprendizaje automático identificar riesgos en sus productos de IA generativa.
Conjunto de herramientas de evaluación de IA generativa
En noviembre, la empresa lanzó un conjunto de herramientas de evaluación de IA generativa en Azure AI Studio, donde los clientes de Microsoft crean sus propios modelos de IA generativa para que los clientes puedan evaluar sus modelos para métricas de calidad básicas, incluido el arraigo.
Ampliación de las herramientas para abordar los riesgos de seguridad
En marzo, estas herramientas se ampliaron para abordar los riesgos de seguridad, como el contenido de odio, violento, sexual y de autolesión, así como los métodos de jailbreaking, como las inyecciones rápidas.
Incidentes con modelos de IA
A pesar de estos esfuerzos, el equipo de IA responsable de Microsoft ha tenido que abordar numerosos incidentes con sus modelos de IA en el último año.
Chatbot de IA Copilot
En marzo, el chatbot de IA Copilot de Microsoft le dijo a un usuario que "tal vez no tengas nada por qué vivir" después de que el usuario, un científico de datos de Meta, le preguntara a Copilot si debería "simplemente terminar con todo".
Generador de imágenes Bing
En octubre pasado, el generador de imágenes Bing de Microsoft permitió a los usuarios generar fotografías de personajes populares, incluidos Kirby y Bob Esponja, volando aviones contra las Torres Gemelas.
Chatbot Bing AI
Después de que se lanzó el chatbot Bing AI, el predecesor de Copilot, en febrero del año pasado, un usuario pudo hacer que el chatbot dijera "Heil Hitler".
Compromiso continuo con la IA responsable
Microsoft reconoce que no existe una línea de meta para la IA responsable y se compromete a compartir sus aprendizajes, colaborar y participar en un diálogo sólido en torno a prácticas de IA responsables.
Fuente: https://es.gizmodo.com/microsoft-responsable-ai-herramientas-copilot-chatbot-h-1851455074
Artículos relacionados