NIST está desarrollando un marco para gestionar mejor los riesgos para las personas, las organizaciones y la sociedad asociados con la inteligencia artificial (IA). El marco de gestión de riesgos de IA del NIST (AI RMF) está diseñado para uso voluntario y para mejorar la capacidad de incorporar consideraciones de confiabilidad en el diseño, desarrollo, uso y evaluación de productos, servicios y sistemas de IA.
El Marco se está desarrollando a través de un proceso de colaboración, abierto, transparente y basado en el consenso que incluye talleres y otras oportunidades para brindar aportes.
Su objetivo es aprovechar, alinearse y apoyar los esfuerzos de gestión de riesgos de IA de otros. Un segundo borrador del AI RMF estuvo disponible para recibir comentarios el 29 de septiembre de 2022. También se solicitaron y discutieron comentarios en el taller del 18 al 19 de octubre.
Un borrador parcial de un NIST AI RMF Playbook estuvo disponible para comentarios iniciales el 29 de septiembre de 2022 y en el taller de octubre. Se pueden proporcionar comentarios sobre el Playbook en cualquier momento y las sugerencias se revisarán e integrarán semestralmente.
Imagen: Cepyme News