Flow afirma que puede multiplicar por 100 la potencia de cualquier CPU con su chip complementario y un poco de esfuerzo

Una startup finlandesa llamada Computación de flujo está haciendo una de las afirmaciones más descabelladas jamás escuchadas en la ingeniería del silicio: al agregar su chip complementario patentado, cualquier CPU puede duplicar instantáneamente su rendimiento, aumentando hasta 100 veces con ajustes de software.

Si funciona, podría ayudar a la industria a mantenerse al día con la insaciable demanda informática de los fabricantes de IA.

Flow es un resultado de VTT, una organización de investigación respaldada por el estado finlandés que es un poco como un laboratorio nacional. La tecnología de chip que comercializa, a la que ha denominado Unidad de procesamiento paralelo, es el resultado de una investigación realizada en ese laboratorio (aunque VTT es un inversor, la propiedad intelectual es propiedad de Flow).

La afirmación, Flow es el primero en admitir, es ridícula a primera vista. No se puede simplemente exprimir mágicamente el rendimiento adicional de las CPU en todas las arquitecturas y bases de código. De ser así, Intel o AMD o quien lo hubiera hecho hace años.

Pero Flow ha estado trabajando en algo que tiene sido teóricamente posible; lo que pasa es que nadie ha podido lograrlo.

Las unidades centrales de procesamiento han recorrido un largo camino desde los primeros días de los tubos de vacío y las tarjetas perforadas, pero en algunos aspectos fundamentales siguen siendo las mismas. Su principal limitación es que, al ser procesadores en serie y no en paralelo, sólo pueden hacer una cosa a la vez. Por supuesto, cambian eso mil millones de veces por segundo a través de múltiples núcleos y rutas, pero todas estas son formas de adaptarse a la naturaleza de un solo carril de la CPU. (Una GPU, por el contrario, realiza muchos cálculos relacionados a la vez, pero está especializada en determinadas operaciones).

“La CPU es el eslabón más débil de la informática”, dijo el cofundador y director ejecutivo de Flow, Timo Valtonen. “No está a la altura de su tarea y esto tendrá que cambiar”.

Las CPU se han vuelto muy rápidas, pero incluso con una capacidad de respuesta de nivel de nanosegundos, hay una enorme cantidad de desperdicio en cómo se llevan a cabo las instrucciones simplemente debido a la limitación básica de que una tarea debe finalizar antes de que comience la siguiente. (Estoy simplificando aquí, no soy un ingeniero de chips).

Lo que Flow afirma haber hecho es eliminar esta limitación, convirtiendo la CPU de una calle de un solo carril en una autopista de varios carriles. La CPU todavía está limitada a realizar una tarea a la vez, pero la PPU de Flow, como la llaman, esencialmente realiza una gestión del tráfico a escala de nanosegundos para mover tareas dentro y fuera del procesador más rápido de lo que antes era posible.

Piense en la CPU como un chef trabajando en la cocina. El chef solo puede trabajar hasta cierto punto, pero ¿qué pasaría si esa persona tuviera un asistente sobrehumano intercambiando cuchillos y herramientas dentro y fuera de las manos del chef, limpiando la comida preparada y poniendo nuevos ingredientes, eliminando todas las tareas que no son propias del chef? El chef todavía sólo tiene dos manos, pero ahora puede trabajar diez veces más rápido.

Gráfico (en el registro, nota) que muestra mejoras en un chip mejorado con PPU FPGA frente a chips Intel no modificados. Aumentar la cantidad de núcleos de PPU mejora continuamente el rendimiento.
Créditos de imagen: Computación de flujo

No es una analogía perfecta, pero te da una idea de lo que está sucediendo aquí, al menos según las pruebas internas de Flow y las demostraciones con la industria (y están hablando con todos). La PPU no aumenta la frecuencia del reloj ni presiona el sistema de otras maneras que generarían calor o energía adicional; en otras palabras, al chef no se le pide que pique el doble de rápido. Simplemente utiliza de manera más eficiente los ciclos de la CPU que ya se están llevando a cabo.

Este tipo de cosas no son nuevas, afirma Valtonen. “Esto ha sido estudiado y discutido en la academia de alto nivel. Ya se puede realizar la paralelización, pero se rompe el código heredado y entonces es inútil”.

Entonces se podría hacer. Simplemente no se podría hacer sin reescribir todo el código del mundo desde cero, lo que lo convierte en un fracaso. Otra empresa informática nórdica, ZeroPoint, resolvió un problema similar, que logró altos niveles de compresión de memoria manteniendo la transparencia de los datos con el resto del sistema.

En otras palabras, el gran logro de Flow no es la gestión del tráfico de alta velocidad, sino hacerlo sin tener que modificar ningún código en ninguna CPU o arquitectura que haya probado. Suena un poco desquiciado decir que un código arbitrario se puede ejecutar dos veces más rápido en cualquier chip sin ninguna modificación más allá de integrar la PPU con el chip.

Ahí radica el principal desafío para el éxito de Flow como negocio: a diferencia de un producto de software, la tecnología de Flow debe incluirse en el nivel de diseño del chip, lo que significa que no funciona retroactivamente, y el primer chip con una PPU necesariamente estaría muy lejos. por el camino. Flow ha demostrado que la tecnología funciona en configuraciones de prueba basadas en FPGA, pero los fabricantes de chips tendrían que comprometer una gran cantidad de recursos para ver las ganancias en cuestión.

El equipo fundador de Flow, desde la izquierda: Jussi Roivainen, Martti Forsell y Timo Valtonen.
Créditos de imagen: Computación de flujo

Sin embargo, la escala de esas ganancias y el hecho de que las mejoras de la CPU hayan sido iterativas y fraccionarias en los últimos años pueden hacer que esos fabricantes de chips llamen a la puerta de Flow con bastante urgencia. Si realmente puedes duplicar tu rendimiento en una generación con un solo cambio de diseño, eso es una obviedad.

Otras ganancias de rendimiento provienen de la refactorización y recompilación del software para que funcione mejor con la combinación PPU-CPU. Flow dice que ha visto aumentos de hasta 100 veces con código que ha sido modificado (aunque no necesariamente reescrito por completo) para aprovechar su tecnología. La compañía está trabajando para ofrecer herramientas de recompilación para simplificar esta tarea a los fabricantes de software que desean optimizar los chips habilitados para Flow.

El analista Kevin Krewell de Investigación Tiríasa quien se le informó sobre la tecnología de Flow y se le mencionó como una perspectiva externa sobre estos asuntos, estaba más preocupado por la adopción de la industria que por los fundamentos.

Señaló, con razón, que la aceleración de la IA es el mercado más grande en este momento, algo a lo que se puede apuntar con silicio especial como el popular H100 de Nvidia. Aunque una CPU acelerada por PPU generaría ganancias en todos los ámbitos, es posible que los fabricantes de chips no quieran hacer cambios demasiado fuertes. Y simplemente queda la cuestión de si esas empresas están dispuestas a invertir recursos significativos en una tecnología en gran medida no probada cuando probablemente tienen un plan quinquenal que se vería alterado por esa elección.

¿Se convertirá la tecnología de Flow en un componente imprescindible para todos los fabricantes de chips, catapultándolos a la fortuna y la prominencia? ¿O los fabricantes de chips, tacaños, decidirán mantener el rumbo y seguir obteniendo rentas del mercado de la computación en constante crecimiento? Probablemente en algún punto intermedio, pero es revelador que, incluso si Flow ha logrado una gran hazaña de ingeniería aquí, como todas las nuevas empresas, el futuro de la empresa depende de sus clientes.

Flow acaba de salir del sigilo, con 4 millones de euros (alrededor de 4,3 millones de dólares) en financiación inicial liderada por Butterfly Ventures, con la participación de FOV Ventures, Sarsia, Stephen Industries, Superhero Capital y Business Finland.

Fuente