Ramalama o la IA «aburrida» de Red Hat
Red Hat, quiere que la Ia sea aburrida. Bueno, no dejes ir tu imaginación a terrenos perezosos, porque en realidad, desde la compañía del sombrero rojo, nos explican que no es su acepción peyorativa en la que usan “aburrido” con este proyecto IA, y nos explicamos.
Red Hat una de las principales empresas en el mundo del Open source, y que puedes encontrar en cada cita de OpenExpo Europe mostrando todo su potencial, presentó oficialmente, hace unos días, durante la conferencia Flock de Fedora (su versión comunitaria) a “Ramalama”. Esta herramienta, como hemos mencionado, “está destinada a hacer aburrida la IA”, es decir, a simplificar su uso y a integrarla sin complicaciones en las operaciones diarias de empresas, desarrolladores y usuarios finales.
¿Qué es Ramalama?
Ramalama es un framework de código abierto diseñado para facilitar la gestión e implementación de modelos de Inteligencia Artificial mediante contenedores tipo Open Container Initiative, más conocidos por el acrónimo OCI. A diferencia de otras soluciones más complejas y específicas, Ramalama tiene como objetivo principal democratizar el acceso a la IA, permitiendo a desarrolladores de nivel medio y básico aprovechar el potencial, cada día mayor y más usado de la Inteligencia Artificial, sin necesidad de un conocimiento profundo en la materia.
Y, por si a estas alturas de la lectura lo habías pensando, si, a mi también se me viene a la mente ese “Ramalama, ding, dong” de los Rocky Sharpe and The Repalys que tanto nos hizo bailar en los ochenta a ritmo de los sesenta. Pero sigamos con el “Ramala de RedHat”.
Licencia y accesibilidad
Uno de los aspectos clave de Ramalama es su licencia MIT, una de las menos restrictivas del software libre. Esto hace que Ramalama sea altamente accesible y, sobre todo, permite su modificación y distribución libre por parte de la comunidad con casi ninguna restricción. Esta elección refuerza el compromiso de Red Hat con el software de código abierto, asegurando que cualquier persona pueda contribuir al desarrollo y mejorar la herramienta según sus necesidades. Lógicamente puedes encontrar todo el código en GitHub a tu libre disposición.
Tecnologías subyacentes
Ramalama se basa en tecnologías avanzadas como llama.cpp, una biblioteca muy popular en la comunidad de IA para la ejecución eficiente de modelos de lenguaje y, como no podía ser menos en Ollama, un registro web especializado que facilita el manejo de modelos preentrenados. Además, Ramalama soporta una amplia gama de hardware, desde GPUs de NVIDIA hasta Apple Silicon, gracias a su integración con contenedores OCI, lo que permite una escalabilidad y flexibilidad más que notables y que promete aumentar muy pronto, puesto que el proyecto está en una fase muy temprana.
Implementación y usos
Lo que más no va ha hacer bailar de este “Ramalama” va a ser, sin duda, su capacidad para desplegar modelos IA en entornos muy variopintos sin necesidad de configuraciones complejas. Está dirigido principalmente a desarrolladores que buscan integrar la Inteligencia Artificial en aplicaciones empresariales, automatización de procesos o incluso en proyectos experimentales. La simplicidad de uso es uno de sus puntos fuertes. Esta simplicidad, asociada con el recurso de “aburrida” pretende hacer que los usuarios tengan el foco y la concentración puestas en el desarrollo de soluciones innovadoras sin verse limitados por barreras técnicas.
Cronograma de desarrollo
Ramalama está empezando su rodaje, sin embargo Red Hat ha dejado claro que el proyecto contará con un calendario de actualizaciones y lanzamientos bien definido, aún no publicado. Durante los próximos meses, se espera que se vayan introducinedo nuevas características y mejoras en la compatibilidad con diferentes plataformas y arquitecturas de hardware.
Estaremos atentos a este cronograma en este blog de OpenExpo Europe, pues seguramente será una de las clave para mantener a Ramalama como una opción viable y competitiva en el acelerado mundo de la Inteligencia Artificial.
Por otro lado, tenemos la garantía de que Ramalama está liderado por un equipo de desarrolladores experimentados de Red Hat, con una visión clara de hacer que la IA sea accesible para todos. El hecho de que su presentación fuese en la última conferencia Flock, nos dejan ver la mano de Fedora (versión comunitaria de Red Hat) en el proyecto, lo que siempre es indicativo de innovación y calidad, además de un grupo inmenso de contribución a lo largo y ancho del globo.