Intel se une a un grupo de expertos líderes en la industria y del mundo académico de la IA para establecer puntos de referencia estándar de seguridad que guiarán su desarrollo responsable.
Intel ha anunciado su participación como miembro fundador en el nuevo grupo de trabajo MLCommons AI Safety (AIS), colaborando con expertos de la industria y el ámbito académico en inteligencia artificial. En calidad de miembro fundador, Intel aportará su experiencia y conocimiento para contribuir a la creación de una plataforma flexible de análisis de referencia que evalúe la seguridad y los riesgos de las herramientas y modelos de IA. La intención es que, a medida que evolucionen las pruebas, los puntos de referencia estándar de seguridad de la IA desarrollados por el grupo de trabajo se conviertan en fundamentales para el enfoque de la sociedad en el despliegue y la seguridad de esta tecnología.
"Intel está comprometida a avanzar en la inteligencia artificial de manera responsable y hacerla accesible para todos. Abordamos las preocupaciones de seguridad de manera integral y desarrollamos innovaciones en hardware y software para permitir que el ecosistema construya IA confiable", dijo Deepak Patil, vicepresidente corporativo y gerente general de Soluciones de IA para centros de datos. "Es fundamental colaborar en todo el entorno para abordar las preocupaciones de seguridad en el desarrollo y la puesta en marcha de la inteligencia artificial".
La seguridad y el despliegue responsable de grandes modelos lingüísticos (LLM) y herramientas son cruciales para mitigar los riesgos sociales asociados con estas poderosas tecnologías. Intel reconoce la importancia de las implicaciones éticas y de derechos humanos relacionadas con el desarrollo de la tecnología, especialmente la inteligencia artificial.
El grupo de trabajo AIS proporcionará un sistema de clasificación de seguridad para evaluar el riesgo de las nuevas tecnologías de IA en constante evolución. La participación de Intel en este grupo es un paso más en sus esfuerzos por promover de manera responsable las tecnologías de IA.
El grupo de trabajo de seguridad de IA, organizado por MLCommons, cuenta con la participación de expertos multidisciplinarios en IA y desarrollará una plataforma y un conjunto de pruebas para respaldar los puntos de referencia de seguridad de la IA en diversos casos de uso.
Intel planea compartir sus hallazgos de seguridad en la IA, así como las mejores prácticas y procesos para el desarrollo responsable, como equipos rojos y pruebas de seguridad. El enfoque inicial del grupo será desarrollar puntos de referencia de seguridad para LLM, basándose en el trabajo preliminar de investigadores de la Universidad de Stanford y su Evaluación Holística de Modelos de Lenguaje (HELM). Intel compartirá sus rigurosos procesos de revisión multidisciplinarios utilizados internamente para desarrollar modelos y herramientas de IA, ayudando a establecer un conjunto común de mejores prácticas y puntos de referencia para evaluar el desarrollo seguro e implementación de herramientas generativas de IA que aprovechen los LLM.
Publicar un comentario