El ao pasado, Microsoft lanz Azure AI Content Safety, una herramienta que ayuda a los clientes a identificar y filtrar los resultados no deseados de los modelos de IA, como el odio, la violencia, el contenido sexual o de autolesin. De manera ms reciente, la compaa ha agregado nuevas herramientas que ya estn disponibles o que estarn disponibles ms adelante en Azure AI Studio para ayudar a los desarrolladores y clientes a mejorar la seguridad y la confiabilidad de sus propios sistemas de IA generativa.