BOLIVIA, 25 Sep (EUROPA PRESS)
Microsoft ha lanzado una innovadora función para corregir las alucinaciones de Inteligencia Artificial en tiempo real, vinculada a su servicio Azure AI Content Safety, con la capacidad de identificar, señalar y modificar resultados inexactos de IA, según anunció la compañía.
Esta herramienta se enmarca dentro del esfuerzo continuo de Microsoft por asegurar una IA confiable, bajo su iniciativa 'Trustworthy AI', que busca que los clientes utilicen y desarrollen tecnología segura, que resguarde la privacidad y cuente con altos niveles de protección.
La gigante tecnológica estadounidense informó sobre nuevas capacidades y funciones diseñadas para incrementar la seguridad y privacidad de los sistemas de IA, permitiendo a los usuarios mitigar los riesgos asociados con esta tecnología.
La función de Corrección, presentada recientemente, identifica y remedia automáticamente el comportamiento alucinatorio al utilizar modelos de IA, detectando y reescribiendo contenido erróneo en los resultados de IA.
Este avance está integrado en Azure AI Content Safety, un conjunto de herramientas destinadas a promover una IA responsable a través de funciones como la detección de vulnerabilidades, bloqueo de mensajes dañinos y el sistema de identificación de alucinaciones.
La función de Corrección cuenta con un sistema basado en la identificación de alucinaciones para grandes modelos de lenguaje (LLM), introducido en marzo, que mediante una característica de 'conexión a tierra', identifica alucinaciones basadas en texto para aplicaciones que generan resúmenes o actúan como 'copilotos' de preguntas y respuestas.
Ahora, en su versión preliminar, esta herramienta escaneará resultados de IA, identificará imprecisiones y reescribirá las respuestas para corregir errores automáticamente, comparando los resultados con materiales de referencia proporcionados por el cliente y explicando los errores detectados antes de que sean visibles para el usuario final.
Sin embargo, un portavoz de Microsoft advirtió a TechCrunch que, al depender de modelos de lenguaje de varios tamaños para "alinear los resultados con los documentos de base", existe el riesgo de que se perpetúen errores presentes en estos modelos.
"La detección de la base no resuelve la 'precisión', pero ayuda a alinear los resultados de la IA generativa con los documentos de base", explicó el portavoz, resaltando la importancia de esta capacidad correctiva, especialmente en aplicaciones de IA generativa, cuyas alucinaciones pueden retrasar su implementación en áreas críticas.
Con la introducción de esta función de Corrección, Microsoft aspira a ofrecer a las organizaciones mayor confianza para implementar interfaces conversacionales dirigidas a sus clientes, mitigando los riesgos asociados con las alucinaciones de IA.