La startup francesa FlexAI sale del sigilo con 30 millones de dólares para facilitar el acceso a la computación de IA

Una startup francesa ha recaudado una importante inversión inicial para “rediseñar la infraestructura informática” para los desarrolladores que quieran crear y entrenar aplicaciones de IA de forma más eficiente.

FlexAIcomo se llama la empresa, ha estado operando de forma sigilosa desde octubre de 2023, pero la empresa con sede en París se lanzará formalmente el miércoles con una financiación de 28,5 millones de euros (30 millones de dólares), al tiempo que adelanta su primer producto: un servicio en la nube bajo demanda para Entrenamiento de IA.

Este es un cambio considerable para una ronda inicial, lo que normalmente significa un pedigrí de fundador realmente sustancial, y ese es el caso aquí. Cofundador y director ejecutivo de FlexAI Brijesh Tripathi anteriormente fue ingeniero de diseño senior en el gigante de GPU y ahora el favorito de la IA, Nvidia, antes de ocupar varios puestos senior de ingeniería y arquitectura en Apple; Tesla (que trabaja directamente bajo las órdenes de Elon Musk); Zoox (antes de que Amazon adquiriera la startup de conducción autónoma); y, más recientemente, Tripathi fue vicepresidente de la plataforma de supercomputación e inteligencia artificial de Intel, AXG.

Cofundador y director de tecnología de FlexAI Ven a China También tiene un currículum impresionante, ya que ha desempeñado varios puestos técnicos en empresas como Nvidia y Zynga, y recientemente ocupó el puesto de CTO en la startup francesa Lifen, que desarrolla infraestructura digital para la industria de la salud.

La ronda inicial estuvo liderada por Alpha Intelligence Capital (AIC), Elaia Partners y Heartcore Capital, con la participación de Frst Capital, Motier Ventures, Partech y el CEO de InstaDeep, Karim Beguir.

Equipo FlexAI en París

El enigma de la computación

Para comprender lo que Tripathi y Kilani están intentando con FlexAI, primero vale la pena entender a qué se enfrentan los desarrolladores y profesionales de la IA en términos de acceso a la “computación”; esto se refiere a la potencia de procesamiento, la infraestructura y los recursos necesarios para llevar a cabo tareas computacionales como procesar datos, ejecutar algoritmos y ejecutar modelos de aprendizaje automático.

“Utilizar cualquier infraestructura en el espacio de la IA es complejo; No es para los débiles de corazón ni para los inexpertos”, dijo Tripathi a TechCrunch. “Requiere que sepas demasiado sobre cómo construir infraestructura antes de poder utilizarla”.

Por el contrario, el ecosistema de nube pública que ha evolucionado en las últimas dos décadas sirve como un buen ejemplo de cómo ha surgido una industria a partir de la necesidad de los desarrolladores de crear aplicaciones sin preocuparse demasiado por el back-end.

“Si es un pequeño desarrollador y desea escribir una aplicación, no necesita saber dónde se está ejecutando ni cuál es el back-end; solo necesita activar una instancia EC2 (nube de Amazon Elastic Compute) y podrá Ya terminamos”, dijo Tripathi. “Hoy en día no se puede hacer eso con la computación de IA”.

En el ámbito de la IA, los desarrolladores deben determinar cuántas GPU (unidades de procesamiento de gráficos) necesitan para interconectarse a través de qué tipo de red, administradas a través de un ecosistema de software cuya configuración son totalmente responsables. Si una GPU o una red falla, o si algo en esa cadena sale mal, la responsabilidad de solucionarlo recae en el desarrollador.

“Queremos llevar la infraestructura informática de IA al mismo nivel de simplicidad al que ha llegado la nube de propósito general; después de 20 años, sí, pero no hay ninguna razón por la que la informática de IA no pueda obtener los mismos beneficios”, afirmó Tripathi. “Queremos llegar a un punto en el que ejecutar cargas de trabajo de IA no requiera que uno se convierta en experto en centros de datos”.

Con la versión actual de su producto avanzando con un puñado de clientes beta, FlexAI lanzará su primer producto comercial a finales de este año. Básicamente es un servicio en la nube que conecta a los desarrolladores con una “computación virtual heterogénea”, lo que significa que pueden ejecutar sus cargas de trabajo e implementar modelos de IA en múltiples arquitecturas, pagando según el uso en lugar de alquilar GPU por dólares por hora.

Las GPU son engranajes vitales en el desarrollo de la IA y sirven para entrenar y ejecutar grandes modelos de lenguaje (LLM), por ejemplo. Nvidia es uno de los actores más destacados en el espacio de las GPU y uno de los principales beneficiarios de la revolución de la IA provocada por OpenAI y ChatGPT. En los 12 meses transcurridos desde que OpenAI lanzó una API para ChatGPT en marzo de 2023, lo que permitió a los desarrolladores incorporar la funcionalidad ChatGPT en sus propias aplicaciones, las acciones de Nvidia se dispararon de alrededor de $ 500 mil millones a más de 2 billones de dólares.

Los LLM están saliendo de la industria tecnológica y la demanda de GPU se dispara a la vez. Pero el funcionamiento de las GPU es caro y alquilarlas a un proveedor de la nube para trabajos más pequeños o casos de uso ad hoc no siempre tiene sentido y puede resultar prohibitivamente caro; Es por eso que AWS ha estado incursionando en alquileres por tiempo limitado para proyectos de IA más pequeños. Pero alquilar sigue siendo alquilar, razón por la cual FlexAI quiere abstraer las complejidades subyacentes y permitir que los clientes accedan a la computación de IA según sea necesario.

“Multinube para la IA”

El punto de partida de FlexAI es que la mayoría de los desarrolladores no en realidad se preocupan en su mayor parte por las GPU o chips que utilizan, ya sea Nvidia, AMD, Intel, Graphcore o Cerebras. Su principal preocupación es poder desarrollar su IA y crear aplicaciones dentro de sus limitaciones presupuestarias.

Aquí es donde entra en juego el concepto de “computación de IA universal” de FlexAI, donde FlexAI toma los requisitos del usuario y los asigna a cualquier arquitectura que tenga sentido para ese trabajo en particular, encargándose de todas las conversiones necesarias en las diferentes plataformas, ya sea La infraestructura Gaudí de Intel, Rocm de AMD o CUDA de Nvidia.

“Lo que esto significa es que el desarrollador sólo se centra en construir, entrenar y utilizar modelos”, dijo Tripathi. “Nosotros nos encargamos de todo lo que hay debajo. Nosotros gestionamos las fallas, la recuperación y la confiabilidad, y usted paga por lo que usa”.

En muchos sentidos, FlexAI se propone acelerar para la IA lo que ya ha estado sucediendo en la nube, lo que significa más que replicar el modelo de pago por uso: significa la capacidad de pasar a la “multinube” apoyándose en los diferentes beneficios. de diferentes infraestructuras de GPU y chips.

Por ejemplo, FlexAI canalizará la carga de trabajo específica de un cliente en función de cuáles sean sus prioridades. Si una empresa tiene un presupuesto limitado para capacitar y ajustar sus modelos de IA, puede configurarlo dentro de la plataforma FlexAI para obtener la máxima cantidad de computación por su inversión. Esto podría significar recurrir a Intel para obtener una computación más barata (pero más lenta), pero si un desarrollador tiene una ejecución pequeña que requiere el resultado más rápido posible, entonces puede canalizarla a través de Nvidia.

En el fondo, FlexAI es básicamente un “agregador de demanda”, que alquila el hardware a través de medios tradicionales y, utilizando sus “fuertes conexiones” con la gente de Intel y AMD, asegura precios preferenciales que distribuye entre su propia base de clientes. Esto no significa necesariamente dejar de lado al rey Nvidia, pero posiblemente sí signifique eso en gran medida, con Intel y AMD luchan por los restos de GPU Quedaron tras Nvidia: existe un gran incentivo para que jueguen con agregadores como FlexAI.

“Si puedo hacer que funcione para los clientes y atraer de decenas a cientos de clientes a su infraestructura, ellos [Intel and AMD] Estaré muy feliz”, dijo Tripathi.

Esto contrasta con reproductores de GPU en la nube similares en el espacio, como CoreWeave y bien financiados. Laboratorios Lambdaque se centran directamente en el hardware de Nvidia.

“Quiero llevar la computación con IA al punto en que se encuentra la actual computación en la nube de propósito general”, señaló Tripathi. “No se puede hacer multinube con IA. Debe seleccionar hardware específico, cantidad de GPU, infraestructura, conectividad y luego mantenerlo usted mismo. Hoy en día, esa es la única manera de obtener computación de IA”.

Cuando se le preguntó quiénes son exactamente los socios de lanzamiento, Tripathi dijo que no podía nombrarlos a todos debido a la falta de “compromisos formales” de algunos de ellos.

“Intel es un socio fuerte, definitivamente proporciona infraestructura, y AMD es un socio que proporciona infraestructura”, afirmó. “Pero hay una segunda capa de asociaciones que se están produciendo con Nvidia y un par de otras empresas de silicio que aún no estamos listos para compartir, pero todas están en la mezcla y en MOU. [memorandums of understanding] se están firmando ahora mismo”.

El efecto Elon

Tripathi está más que equipada para afrontar los desafíos que se avecinan, ya que ha trabajado en algunas de las empresas tecnológicas más grandes del mundo.

“Sé lo suficiente sobre GPU; Solía ​​construir GPU”, dijo Tripathi sobre su período de siete años en Nvidia, que terminó en 2007 cuando abandonó el barco para Apple cuando estaba lanzando el primer iPhone. “En Apple, me centré en resolver problemas reales de los clientes. Estuve allí cuando Apple comenzó a construir sus primeros SoC. [system on chips] para teléfonos”.

Tripathi también pasó dos años en Tesla de 2016 a 2018 como líder de ingeniería de hardware, donde terminó trabajando directamente bajo las órdenes de Elon Musk durante sus últimos seis meses después de que dos personas por encima de él abandonaran abruptamente la empresa.

“En Tesla, lo que aprendí y estoy incorporando a mi startup es que no hay más limitaciones que la ciencia y la física”, dijo. “La forma en que se hacen las cosas hoy no es como deberían o deben hacerse. Deberías perseguir lo que es correcto hacer desde los primeros principios y, para ello, eliminar todos los recuadros negros”.

Tripathi participó en la transición de Tesla hacia la fabricación de sus propios chips, una medida que desde entonces ha sido emulada por GM y Hyundai, entre otros fabricantes de automóviles.

“Una de las primeras cosas que hice en Tesla fue calcular cuántos microcontroladores hay en un automóvil, y para hacerlo, literalmente tuvimos que clasificar un montón de esas grandes cajas negras con blindaje y carcasa de metal alrededor, para Encuentre estos microcontroladores realmente pequeños allí”, dijo Tripathi. “Y terminamos poniendo eso sobre una mesa, lo colocamos y dijimos: ‘Elon, hay 50 microcontroladores en un auto. Y a veces pagamos márgenes de 1.000 veces por ellos porque están blindados y protegidos en una gran carcasa metálica.’ Y él dijo: ‘Vamos a hacer el nuestro’. Y lo hicimos”.

GPU como garantía

Mirando hacia el futuro, FlexAI también aspira a construir su propia infraestructura, incluidos centros de datos. Esto, dijo Tripathi, se financiará mediante financiación de deuda, basándose en una tendencia reciente que ha visto a rivales en el espacio incluyendo CoreWeave y Lambda Labs utiliza chips Nvidia como garantía para garantizar préstamos, en lugar de regalar más capital.

“Los banqueros ahora saben cómo utilizar las GPU como garantía”, afirmó Tripathi. “¿Por qué regalar capital? Hasta que nos convirtamos en un verdadero proveedor de informática, el valor de nuestra empresa no será suficiente para conseguir los cientos de millones de dólares necesarios para invertir en la construcción de centros de datos. Si sólo hiciéramos equidad, desapareceríamos cuando se acabara el dinero. Pero si realmente lo depositamos en GPU como garantía, pueden quitarnos las GPU y ponerlas en algún otro centro de datos”.

Fuente