Dil Seçin

Turkish

Down Icon

Ülke Seçin

America

Down Icon

Aman Tanrım! Alman laboratuvarı TNG Technology Consulting GmbH'den yeni, %200 daha hızlı bir DeepSeek R1-0528 çeşidi ortaya çıktı

Aman Tanrım! Alman laboratuvarı TNG Technology Consulting GmbH'den yeni, %200 daha hızlı bir DeepSeek R1-0528 çeşidi ortaya çıktı

Gelen kutunuzda daha akıllı içgörüler mi istiyorsunuz? Yalnızca kurumsal AI, veri ve güvenlik liderleri için önemli olan şeyleri almak için haftalık bültenlerimize kaydolun. Şimdi Abone Ol

Hong Kong merkezli High-Flyer Capital Management'ın bir kolu olan Çinli yapay zeka girişimi DeepSeek, popüler açık kaynaklı modeli DeepSeek'in son sürümü R1-0528'i yayınlamasının üzerinden bir aydan biraz fazla zaman geçti.

Önceki sürümü DeepSeek-R1 gibi (ki bu sürüm, geliştiriciler ve işletmeler için ücretsiz olarak sunulan, ucuz bir şekilde eğitilmesi ve muhakeme görevlerinde gösterdiği performansla yapay zeka ve küresel iş topluluklarını sarsmıştı ) R1-0528 de büyük ölçüde izin verici Apache 2.0 lisansı sayesinde diğer yapay zeka laboratuvarları ve geliştiricileri tarafından uyarlanıyor ve yeniden düzenleniyor.

Bu hafta, 24 yıllık Alman firması TNG Technology Consulting GmbH, bu tür bir uyarlamayı yayınladı : DeepSeek-TNG R1T2 Chimera , Chimera büyük dil modeli (LLM) ailesinin en son modeli. R1T2, R1-0528'in istihbarat kıyaslama puanlarının %90'ından fazlasına ulaşırken, R1-0528'in çıktı belirteci sayısının %40'ından azına sahip yanıtlar üreterek verimlilik ve hızda önemli bir artış sağlıyor.

Bu, daha kısa yanıtlar ürettiği ve doğrudan daha hızlı çıkarım ve daha düşük hesaplama maliyetleri anlamına gelir. TNG'nin yapay zeka kod paylaşım topluluğu Hugging Face'te yeni R1T2 için yayınladığı model kartında şirket, bunun "normal R1'den yaklaşık %20 daha hızlı" (Ocak ayında yayınlanan) "ve R1-0528'den iki kattan fazla daha hızlı" (DeepSeek'in Mayıs ayındaki resmi güncellemesi) olduğunu belirtiyor.

AI geliştirici topluluğundan gelen yanıtlar şimdiden inanılmaz derecede olumlu. Hugging Face'te kıdemli bir lider olan Vaibhav (VB) Srivastav, X'te "KAHRETSİN! DeepSeek R1T2 – R1-0528'den %200 daha hızlı ve R1'den %20 daha hızlı" diye yazdı. "GPQA ve AIME 24'te R1'den önemli ölçüde daha iyi, DS V3, R1 ve R1-0528 ile Assembly of Experts aracılığıyla yapıldı ve MIT lisanslı, Hugging Face'te mevcut."

Bu kazanım, TNG'nin Uzmanların Birleştirilmesi (AoE) yöntemi sayesinde mümkün oldu. Bu yöntem, TNG'nin Mayıs ayında arXiv'de, hakem denetiminden geçmiş, açık erişimli çevrimiçi dergide yayınladığı bir makalede açıkladığı, önceden eğitilmiş birden fazla modelden gelen ağırlık tensörlerini (dahili parametreleri) seçici bir şekilde birleştirerek LLM'ler oluşturma tekniğidir.

Orijinal R1T Chimera'nın halefi olan R1T2, üç ana modeli entegre eden yeni bir "Tri-Mind" yapılandırması sunar: DeepSeek-R1-0528, DeepSeek-R1 ve DeepSeek-V3-0324. Sonuç, çıkarım maliyetini önemli ölçüde azaltırken yüksek akıl yürütme yeteneğini korumak için tasarlanmış bir modeldir.

R1T2, daha fazla ince ayar veya yeniden eğitim olmadan oluşturulmuştur. R1-0528'in muhakeme gücünü, R1'in yapılandırılmış düşünce kalıplarını ve V3-0324'ün özlü, talimat odaklı davranışını miras alır — kurumsal ve araştırma kullanımı için daha verimli, ancak yetenekli bir model sunar.

Uzman Karışımı (MoE), farklı bileşenlerin veya "uzmanların" girdi başına koşullu olarak etkinleştirildiği bir mimari tasarımdır. DeepSeek-V3 veya Mixtral gibi MoE LLM'lerinde, modelin uzman katmanlarının yalnızca bir alt kümesi (örneğin, 256'dan 8'i) herhangi bir belirtecin ileri geçişi sırasında etkindir. Bu, çok büyük modellerin çıkarım maliyetlerini yönetilebilir tutarken daha yüksek parametre sayılarına ve uzmanlaşmaya ulaşmasını sağlar — çünkü belirteç başına ağın yalnızca bir kısmı değerlendirilir.

Assembly-of-Experts (AoE), bir mimari değil, bir model birleştirme tekniğidir. Ağırlık tensörlerini seçici olarak interpole ederek birden fazla önceden eğitilmiş MoE modelinden yeni bir model oluşturmak için kullanılır.

AoE'deki "uzmanlar", birleştirilen model bileşenlerini ifade eder (genellikle MoE katmanları içindeki yönlendirilmiş uzman tensörleri), çalışma zamanında dinamik olarak etkinleştirilen uzmanları ifade etmez.

TNG'nin AoE uygulaması, esas olarak yönlendirilmiş uzman tensörlerini birleştirmeye odaklanır — bir modelin uzmanlaşmış akıl yürütmeden en çok sorumlu olan kısmı — sıklıkla V3-0324 gibi daha hızlı modellerden daha verimli paylaşılan ve dikkat katmanlarını korurken. Bu yaklaşım, ortaya çıkan Chimera modellerinin, en güçlü ebeveyn modellerin ayrıntı düzeyini veya gecikmesini kopyalamadan akıl yürütme gücünü devralmasını sağlar.

TNG tarafından sunulan kıyaslama karşılaştırmalarına göre, R1T2, AIME-24, AIME-25 ve GPQA-Diamond test setleriyle ölçüldüğünde, en zeki ebeveyni olan DeepSeek-R1-0528'in muhakeme performansının %90 ila %92'sini başarıyor.

Ancak, genişletilmiş düşünce zinciri muhakemesi nedeniyle uzun, ayrıntılı yanıtlar üretme eğiliminde olan DeepSeek-R1-0528'in aksine, R1T2 çok daha öz olacak şekilde tasarlanmıştır. Önemli ölçüde daha az kelime kullanırken benzer şekilde akıllı yanıtlar sunar.

TNG, ham işlem süresine veya saniye başına token sayısına odaklanmak yerine, "hızı" yanıt başına çıktı token sayısı açısından ölçer; bu, hem maliyet hem de gecikme için pratik bir vekildir. TNG tarafından paylaşılan kıyaslamalara göre, R1T2, R1-0528 tarafından gerekli olan tokenların yaklaşık %40'ını kullanarak yanıtlar üretir.

Bu , çıktı uzunluğunda %60'lık bir azalma anlamına gelir; bu da doğrudan çıkarım süresini ve işlem yükünü azaltır ve yanıtları 2 kat veya %200 oranında hızlandırır.

Orijinal DeepSeek-R1 ile karşılaştırıldığında, R1T2 ortalama olarak yaklaşık %20 daha özlüdür ve yüksek verimli veya maliyet açısından hassas dağıtımlar için verimlilikte anlamlı kazanımlar sunar.

Bu verimlilik, zeka pahasına elde edilmez. TNG'nin teknik makalesinde sunulan kıyaslama çizelgesinde gösterildiği gibi, R1T2 zeka ile çıktı maliyeti eğrisinde istenen bir bölgede yer alır. Çıkarım hızı, verim ve maliyetin önemli olduğu kurumsal uygulamalar için kritik bir sonuç olan ayrıntılılığı en aza indirirken akıl yürütme kalitesini korur.

R1T2, izin verici bir MIT Lisansı altında yayınlanmıştır ve şu anda Hugging Face'te mevcuttur, yani açık kaynaklıdır ve ticari uygulamalarda kullanılabilir ve entegre edilebilir.

TNG, modelin genel akıl yürütme görevleri için oldukça uygun olmasına rağmen, DeepSeek-R1 soyundan devralınan sınırlamalar nedeniyle şu anda işlev çağrısı veya araç kullanımı gerektiren kullanım durumları için önerilmediğini belirtiyor. Bunlar gelecekteki güncellemelerde ele alınabilir.

Şirket ayrıca Avrupa'daki kullanıcılara, 2 Ağustos 2025'te yürürlüğe girecek olan AB Yapay Zeka Yasası'na uyumu değerlendirmelerini tavsiye ediyor.

AB'de faaliyet gösteren işletmeler, ilgili hükümleri gözden geçirmeli veya gerekliliklerin karşılanamaması durumunda bu tarihten sonra model kullanımını durdurmayı değerlendirmelidir.

Ancak, ABD'de faaliyet gösteren ve ABD merkezli kullanıcılara veya diğer uluslara hizmet veren ABD şirketleri, bu ücretsiz, hızlı açık kaynaklı akıl yürütme modelini kullanırken ve dağıtırken onlara önemli bir esneklik sağlaması gereken AB AI Yasası'nın şartlarına tabi değildir . AB'deki kullanıcılara hizmet veriyorlarsa, AB Yasası'nın bazı hükümleri yine de geçerli olacaktır .

TNG, daha önce Chimera varyantlarını OpenRouter ve Chutes gibi platformlar aracılığıyla kullanıma sunmuştu ve bildirildiğine göre günlük milyarlarca token işlemişlerdi. R1T2'nin piyasaya sürülmesi, bu genel kullanılabilirlik çabasında daha ileri bir evrimi temsil ediyor.

Ocak 2001'de kurulan TNG Technology Consulting GmbH , Almanya'nın Bavyera eyaletinde bulunmaktadır ve çoğunluğu doktora ve teknik uzmanlardan oluşan 900'den fazla kişiyi istihdam etmektedir.

Şirket, telekomünikasyon, sigortacılık, otomotiv, e-ticaret ve lojistik gibi sektörlerdeki büyük kurumsal müşterilere hizmet vererek yazılım geliştirme, yapay zeka ve DevOps/bulut hizmetlerine odaklanıyor.

TNG, değerlere dayalı bir danışmanlık ortaklığı olarak faaliyet göstermektedir. Operasyonel araştırma ve öz yönetim ilkelerine dayanan benzersiz yapısı, teknik inovasyon kültürünü desteklemektedir.

R1T2 gibi kamuya açık sürümler ve Uzmanlar Meclisi metodolojisinin yayınlanmasıyla gösterildiği gibi, açık kaynak topluluklarına ve araştırmalara aktif olarak katkıda bulunmaktadır.

CTO'lar, yapay zeka platformu sahipleri, mühendislik liderleri ve BT tedarik ekipleri için R1T2 somut avantajlar ve stratejik seçenekler sunuyor:

  • Daha Düşük Çıkarım Maliyetleri : Görev başına daha az çıktı belirteci ile R1T2, GPU süresini ve enerji tüketimini azaltır ve bu da doğrudan altyapı tasarrufuna dönüşür; bu özellikle yüksek verimli veya gerçek zamanlı ortamlarda önemlidir.
  • Yük Olmadan Yüksek Muhakeme Kalitesi : R1-0528 gibi üst düzey modellerin muhakeme gücünün çoğunu korur, ancak uzun soluklu olmadan. Bu, özlü cevapların tercih edildiği yapılandırılmış görevler (matematik, programlama, mantık) için idealdir.
  • Açık ve Değiştirilebilir : MIT Lisansı, düzenlenmiş veya hava boşluklu ortamlarda özel barındırma, model uyumu veya daha fazla eğitim olanağı sağlayarak tam dağıtım kontrolü ve özelleştirmesine olanak tanır.
  • Ortaya Çıkan Modülerlik : AoE yaklaşımı, modellerin modüler olarak oluşturulduğu ve işletmelerin sıfırdan yeniden eğitmek yerine, mevcut modellerin güçlü yönlerini yeniden birleştirerek uzmanlaşmış varyantlar oluşturmasına olanak tanıyan bir gelecek önermektedir.
  • Uyarılar : Fonksiyon çağırma, araç kullanımı veya gelişmiş aracı orkestrasyonuna güvenen işletmeler mevcut sınırlamalara dikkat etmelidir; ancak gelecekteki Chimera güncellemeleri bu boşlukları giderebilir.

TNG araştırmacıları, geliştiricileri ve kurumsal kullanıcıları modeli keşfetmeye, davranışını test etmeye ve geri bildirim sağlamaya teşvik eder. R1T2 Chimera hugface.co/tngtech/DeepSeek-TNG-R1T2-Chimera adresinde mevcuttur ve teknik sorular [email protected] adresine yönlendirilebilir.

Teknik arka plan ve kıyaslama metodolojisi için TNG'nin araştırma makalesine arXiv:2506.14794 adresinden ulaşılabilir.

VB Daily ile iş kullanım örneklerine ilişkin günlük içgörüler

Patronunuzu etkilemek istiyorsanız, VB Daily sizin için burada. Şirketlerin üretken yapay zeka ile ilgili olarak düzenleyici değişikliklerden pratik dağıtımlara kadar neler yaptıklarına dair içeriden bilgiler veriyoruz, böylece maksimum yatırım getirisi için içgörüler paylaşabilirsiniz.

Gizlilik Politikamızı okuyun

Abone olduğunuz için teşekkürler. Daha fazla VB bültenine buradan göz atın.

Bir hata oluştu.

venturebeat

venturebeat

Benzer Haberler

Tüm Haberler
Animated ArrowAnimated ArrowAnimated Arrow