Intel y otros se comprometen a crear herramientas abiertas de IA generativa para la empresa

¿Puede la IA generativa diseñada para la empresa (por ejemplo, la IA que autocompleta informes, fórmulas de hojas de cálculo, etc.) ser alguna vez interoperable? Junto con un círculo de organizaciones como Cloudera e Intel, la Fundación Linux (la organización sin fines de lucro que apoya y mantiene un número creciente de esfuerzos de código abierto) pretende averiguarlo.

La Fundación Linux hoy Anunciado el lanzamiento de la Plataforma Abierta para la IA Empresarial (OPEA), un proyecto para fomentar el desarrollo de sistemas de IA generativa abiertos, de múltiples proveedores y componibles (es decir, modulares). Bajo el ámbito de la organización LFAI y Data de la Fundación Linux, que se centra en iniciativas de plataformas relacionadas con datos e inteligencia artificial, el objetivo de OPEA será allanar el camino para el lanzamiento de sistemas de inteligencia artificial generativos “reforzados” y “escalables” que “aprovechen las la mejor innovación de código abierto de todo el ecosistema”, dijo el director ejecutivo de LFAI y Data, Ibrahim Haddad, en un comunicado de prensa.

“OPEA desbloqueará nuevas posibilidades en IA mediante la creación de un marco detallado y componible que se sitúa a la vanguardia de las pilas de tecnología”, dijo Haddad. “Esta iniciativa es un testimonio de nuestra misión de impulsar la innovación y la colaboración de código abierto dentro de las comunidades de datos e inteligencia artificial bajo un modelo de gobernanza abierto y neutral”.

Además de Cloudera e Intel, OPEA, uno de los proyectos Sandbox de la Fundación Linux, una especie de programa de incubación, cuenta entre sus miembros con pesos pesados ​​empresariales como Intel, Red Hat, propiedad de IBM, Hugging Face, Domino Data Lab, MariaDB y VMWare.

Entonces, ¿qué podrían construir juntos exactamente? Haddad insinúa algunas posibilidades, como el soporte “optimizado” para compiladores y cadenas de herramientas de IA, que permiten que las cargas de trabajo de IA se ejecuten en diferentes componentes de hardware, así como canales “heterogéneos” para la generación aumentada de recuperación (RAG).

RAG se está volviendo cada vez más popular en las aplicaciones empresariales de IA generativa y no es difícil ver por qué. Las respuestas y acciones de la mayoría de los modelos de IA generativa se limitan a los datos con los que están entrenados. Pero con RAG, la base de conocimientos de un modelo se puede ampliar a información fuera de los datos de entrenamiento originales. Los modelos RAG hacen referencia a esta información externa (que puede tomar la forma de datos patentados de la empresa, una base de datos pública o alguna combinación de ambos) antes de generar una respuesta o realizar una tarea.

Un diagrama que explica los modelos RAG.

Intel ofreció algunos detalles más por su cuenta presione soltar:

Las empresas enfrentan el desafío de un enfoque de “hágalo usted mismo” [to RAG] porque no existen estándares de facto entre los componentes que permitan a las empresas elegir e implementar soluciones RAG que sean abiertas e interoperables y que les ayuden a llegar rápidamente al mercado. OPEA tiene la intención de abordar estos problemas colaborando con la industria para estandarizar componentes, incluidos marcos, planos de arquitectura y soluciones de referencia.

La evaluación también será una parte clave de lo que aborde la OPEA.

En su GitHub repositorioOPEA propone una rúbrica para calificar los sistemas de IA generativa según cuatro ejes: rendimiento, características, confiabilidad y preparación de “grado empresarial”. Actuación como lo define OPEA, se refiere a puntos de referencia de “caja negra” de casos de uso del mundo real. Características Es una evaluación de la interoperabilidad, las opciones de implementación y la facilidad de uso de un sistema. La confiabilidad analiza la capacidad de un modelo de IA para garantizar “robustez” y calidad. Y preparación empresarial se centra en los requisitos para que un sistema esté en funcionamiento sin problemas importantes.

Rachel Roumeliotis, directora de estrategia de código abierto de Intel, dice que OPEA trabajará con la comunidad de código abierto para ofrecer pruebas basadas en la rúbrica y proporcionará evaluaciones y calificaciones de implementaciones de IA generativa a pedido.

Los demás proyectos de la OPEA están un poco en el aire en este momento. Pero Haddad planteó el potencial del desarrollo de modelos abiertos siguiendo las líneas de la creciente familia Llama de Meta y DBRX de Databricks. Con ese fin, en el repositorio de OPEA, Intel ya ha contribuido con implementaciones de referencia para un chatbot impulsado por IA generativa, un resumidor de documentos y un generador de código optimizados para su hardware Xeon 6 y Gaudi 2.

Ahora, los miembros de OPEA están claramente comprometidos (y interesados, de hecho) en construir herramientas para la IA generativa empresarial. Cloudera recientemente asociaciones lanzadas para crear lo que está presentando como un “ecosistema de IA” en la nube. Domino ofrece una conjunto de aplicaciones para construir y auditar IA generativa empresarial. Y VMWare, orientado al lado de la infraestructura de la IA empresarial, se lanzó en agosto pasado. nuevos productos informáticos de “IA privada”.

La pregunta es, según la OPEA, ¿estos proveedores de hecho ¿Trabajar juntos para crear herramientas de IA compatibles entre sí?

Hay un beneficio obvio al hacerlo. Los clientes estarán felices de recurrir a múltiples proveedores según sus necesidades, recursos y presupuestos. Pero la historia ha demostrado que es muy fácil inclinarse hacia la dependencia del proveedor. Esperemos que ese no sea el resultado final aquí.

Fuente