El nuevo modelo de IA R1 de DeepSeek consumirá mucha menos energía

DeepSeek, que surgió de China y se ha apoderado del mundo y se muestra como el mayor competidor de ChatGPT, puede llevar su ya buen consumo de energía a un nivel mucho más alto, según nuevas noticias. Según los informes, el modelo R1 AI actualizado de la aplicación de inteligencia artificial ha alcanzado un nivel que puede ejecutarse en una sola GPU. Con el lanzamiento del DeepSeek-R1-0528-Qwen3-8B, una versión más pequeña del nuevo modelo R1, DeepSeek afirma que este modelo supera a modelos de tamaño similar en ciertas pruebas de referencia.
Basada en el modelo Qwen3-8B que Alibaba lanzó en mayo, la versión R1, más pequeña y actualizada, tuvo un desempeño mucho mejor que el modelo Gemini 2.5 Flash de Google en la prueba AIME 2025, que consiste en preguntas matemáticas desafiantes.
DeepSeek-R1-0528-Qwen3-8B logró casi el mismo rendimiento que el modelo Phi 4 recientemente lanzado por Microsoft en otra prueba de habilidades matemáticas, HMMT.
Los modelos denominados reducidos, como DeepSeek-R1-0528-Qwen3-8B, suelen ser menos capaces que sus contrapartes de tamaño completo, pero aún así pueden destacarse por su rendimiento. Por supuesto, la ventaja más importante de estas versiones es que requieren muchos menos recursos computacionales.
Según la plataforma en nube NodeShift, Qwen3-8B requiere una GPU (por ejemplo, una Nvidia H100) con 40 GB - 80 GB de RAM para funcionar. Si lo comparamos con el nuevo R1 de tamaño completo, vemos que este modelo requiere alrededor de una docena de GPU de 80 GB.
DeepSeek-R1-0528-Qwen3-8B está disponible bajo una licencia MIT permisiva, lo que significa que puede usarse comercialmente sin restricciones. Muchos distribuidores, incluido LM Studio, ofrecen este modelo a través de una API.
milliyet