O cholera! Nowa, 200% szybsza odmiana DeepSeek R1-0528 pojawia się w niemieckim laboratorium TNG Technology Consulting GmbH

Chcesz otrzymywać mądrzejsze informacje w swojej skrzynce odbiorczej? Zapisz się na nasze cotygodniowe newslettery, aby otrzymywać tylko to, co jest ważne dla liderów w dziedzinie sztucznej inteligencji, danych i bezpieczeństwa przedsiębiorstw. Subskrybuj teraz
Minął nieco ponad miesiąc, odkąd chiński startup zajmujący się sztuczną inteligencją DeepSeek, będący odnogą hongkońskiego High-Flyer Capital Management, wypuścił najnowszą wersję swojego popularnego modelu open source DeepSeek, R1-0528.
Podobnie jak jego poprzednik DeepSeek-R1 — który wstrząsnął społecznością sztucznej inteligencji i globalnego biznesu tym, jak tanio został wyszkolony i jak dobrze radził sobie z zadaniami wnioskowania, a wszystko to było dostępne dla programistów i przedsiębiorstw bezpłatnie — R1-0528 jest już adaptowany i remiksowany przez inne laboratoria i programistów sztucznej inteligencji, w dużej mierze dzięki liberalnej licencji Apache 2.0.
W tym tygodniu 24-letnia niemiecka firma TNG Technology Consulting GmbH wydała jedną z takich adaptacji: DeepSeek-TNG R1T2 Chimera , najnowszy model w rodzinie Chimera large language model (LLM). R1T2 zapewnia zauważalny wzrost wydajności i szybkości, uzyskując ponad 90% wyników benchmarku inteligencji R1-0528 , jednocześnie generując odpowiedzi z liczbą tokenów wyjściowych mniejszą niż 40% R1-0528 .
Oznacza to, że generuje krótsze odpowiedzi, co przekłada się bezpośrednio na szybsze wnioskowanie i niższe koszty obliczeniowe . Na karcie modelu wydanej przez TNG dla swojego nowego R1T2 w społeczności udostępniania kodu AI Hugging Face, firma stwierdza, że jest ona „około 20% szybsza niż zwykły R1” (wydany w styczniu) „i ponad dwukrotnie szybsza niż R1-0528” (oficjalna aktualizacja z maja od DeepSeek).
Już teraz reakcja społeczności programistów AI jest niezwykle pozytywna. „DO DIABŁA! DeepSeek R1T2 – 200% szybszy niż R1-0528 i 20% szybszy niż R1”, napisał Vaibhav (VB) Srivastav, starszy lider w Hugging Face, na X. „Znacznie lepszy niż R1 na GPQA i AIME 24, stworzony przez Assembly of Experts z DS V3, R1 i R1-0528 — i jest na licencji MIT, dostępny na Hugging Face”.
Uzyskanie takiego efektu jest możliwe dzięki metodzie Assembly-of-Experts (AoE) TNG — technice budowania modeli LLM poprzez selektywne scalanie tensorów wag (parametrów wewnętrznych) z wielu wstępnie wytrenowanych modeli, którą TNG opisał w artykule opublikowanym w maju w arXiv, nierecenzowanym czasopiśmie internetowym o otwartym dostępie.
Następca oryginalnego R1T Chimera, R1T2 wprowadza nową konfigurację „Tri-Mind”, która integruje trzy modele nadrzędne: DeepSeek-R1-0528, DeepSeek-R1 i DeepSeek-V3-0324. Rezultatem jest model zaprojektowany tak, aby utrzymać wysoką zdolność rozumowania, jednocześnie znacznie zmniejszając koszty wnioskowania.
R1T2 jest konstruowany bez dalszego dostrajania ani ponownego szkolenia. Dziedziczy siłę rozumowania R1-0528, ustrukturyzowane wzorce myślowe R1 i zwięzłe, zorientowane na instrukcje zachowanie V3-0324 — dostarczając bardziej wydajny, ale zdolny model do użytku w przedsiębiorstwach i badaniach.
Mixture-of-Experts (MoE) to projekt architektoniczny, w którym różne komponenty, czyli „eksperci”, są warunkowo aktywowane na podstawie danych wejściowych. W MoE LLM, takich jak DeepSeek-V3 lub Mixtral, tylko podzbiór warstw eksperckich modelu (np. 8 z 256) jest aktywny podczas przekazywania dowolnego tokena. Pozwala to bardzo dużym modelom na osiągnięcie większej liczby parametrów i specjalizacji przy jednoczesnym zachowaniu kosztów wnioskowania na rozsądnym poziomie — ponieważ tylko ułamek sieci jest oceniany na podstawie tokena.
Assembly-of-Experts (AoE) to technika łączenia modeli, a nie architektura. Służy do tworzenia nowego modelu z wielu wstępnie wytrenowanych modeli MoE poprzez selektywną interpolację ich tensorów wag.
„Eksperci” w AoE odnoszą się do scalanych komponentów modelu — zwykle kierowanych tensorów ekspertów w warstwach MoE — a nie do ekspertów dynamicznie aktywowanych w czasie wykonywania.
Implementacja AoE przez TNG koncentruje się przede wszystkim na łączeniu trasowanych tensorów eksperckich — części modelu najbardziej odpowiedzialnej za specjalistyczne rozumowanie — przy jednoczesnym zachowaniu bardziej wydajnych warstw współdzielonych i uwagi z szybszych modeli, takich jak V3-0324. To podejście umożliwia wynikowym modelom Chimera dziedziczenie siły rozumowania bez powielania rozwlekłości lub opóźnienia najsilniejszych modeli nadrzędnych.
Zgodnie z porównaniami testów porównawczych przedstawionymi przez TNG, R1T2 osiąga od 90% do 92% wydajności rozumowania swojego najinteligentniejszego rodzica, DeepSeek-R1-0528, mierzonej zestawami testowymi AIME-24, AIME-25 i GPQA-Diamond.

Jednak w przeciwieństwie do DeepSeek-R1-0528 — który ma tendencję do generowania długich, szczegółowych odpowiedzi ze względu na swój rozszerzony łańcuch rozumowania — R1T2 jest zaprojektowany tak, aby był o wiele bardziej zwięzły. Dostarcza podobnie inteligentnych odpowiedzi, używając znacznie mniej słów.
Zamiast skupiać się na surowym czasie przetwarzania lub tokenach na sekundę, TNG mierzy „prędkość” w kategoriach liczby tokenów wyjściowych na odpowiedź — praktyczny substytut zarówno kosztów, jak i opóźnień. Zgodnie z testami porównawczymi udostępnionymi przez TNG, R1T2 generuje odpowiedzi, wykorzystując około 40% tokenów wymaganych przez R1-0528.
Przekłada się to na 60-procentową redukcję długości danych wyjściowych , co bezpośrednio skraca czas wnioskowania i obciążenie obliczeniowe, przyspieszając odpowiedź dwukrotnie, czyli o 200%.
W porównaniu do oryginalnego DeepSeek-R1, R1T2 jest także średnio o 20% bardziej zwięzły , co zapewnia znaczący wzrost wydajności w przypadku wdrożeń wymagających dużej przepustowości lub oszczędności.
Ta wydajność nie jest okupiona kosztem inteligencji. Jak pokazano na wykresie porównawczym zaprezentowanym w dokumencie technicznym TNG, R1T2 znajduje się w pożądanej strefie na krzywej inteligencji w stosunku do kosztów wyjściowych. Zachowuje jakość rozumowania, minimalizując jednocześnie rozwlekłość — wynik krytyczny dla aplikacji korporacyjnych, w których liczy się szybkość wnioskowania, przepustowość i koszt.
R1T2 został wydany na podstawie liberalnej licencji MIT i jest już dostępny na Hugging Face, co oznacza, że jest oprogramowaniem typu open source i można go używać oraz wbudowywać w aplikacje komercyjne.
TNG zauważa, że chociaż model jest dobrze przystosowany do ogólnych zadań rozumowania, obecnie nie jest zalecany do przypadków użycia wymagających wywołania funkcji lub użycia narzędzi, ze względu na ograniczenia odziedziczone po linii DeepSeek-R1. Mogą one zostać uwzględnione w przyszłych aktualizacjach.
Firma zaleca również europejskim użytkownikom ocenę zgodności z unijną ustawą o sztucznej inteligencji, która wejdzie w życie 2 sierpnia 2025 r.
Przedsiębiorstwa działające na terenie UE powinny dokonać przeglądu odpowiednich przepisów lub rozważyć zaprzestanie korzystania z modelu po tej dacie, jeżeli nie będzie można spełnić wymogów.
Jednakże firmy amerykańskie działające na rynku krajowym i obsługujące użytkowników z USA lub z innych krajów nie podlegają postanowieniom ustawy UE o sztucznej inteligencji, co powinno dać im znaczną elastyczność podczas korzystania i wdrażania tego bezpłatnego, szybkiego modelu rozumowania typu open source. Jeśli obsługują użytkowników w UE, niektóre postanowienia ustawy UE nadal będą miały zastosowanie .
TNG udostępniło już wcześniejsze warianty Chimera za pośrednictwem platform takich jak OpenRouter i Chutes, gdzie podobno przetwarzali miliardy tokenów dziennie. Wydanie R1T2 stanowi dalszą ewolucję w tym publicznym wysiłku na rzecz dostępności.
Założona w styczniu 2001 r. firma TNG Technology Consulting GmbH ma siedzibę w Bawarii, w Niemczech i zatrudnia ponad 900 osób, w tym dużą część osób posiadających tytuł doktora i specjalistów technicznych.
Firma koncentruje się na rozwoju oprogramowania, sztucznej inteligencji oraz usługach DevOps/w chmurze, obsługując dużych klientów korporacyjnych z takich branż jak telekomunikacja, ubezpieczenia, motoryzacja, handel elektroniczny i logistyka.
TNG działa jako partnerstwo konsultingowe oparte na wartościach. Jego unikalna struktura, oparta na badaniach operacyjnych i zasadach samozarządzania, wspiera kulturę innowacji technicznych.
Aktywnie uczestniczy w społecznościach i badaniach open source, czego dowodem są publiczne wydania, takie jak R1T2, oraz publikacja metodologii Assembly-of-Experts.
Dla dyrektorów technicznych, właścicieli platform AI, liderów inżynierii i zespołów ds. zakupów IT R1T2 oznacza wymierne korzyści i opcje strategiczne:
- Niższe koszty wnioskowania : Dzięki mniejszej liczbie tokenów wyjściowych na zadanie R1T2 skraca czas pracy procesora graficznego i zużycie energii, co przekłada się bezpośrednio na oszczędności w infrastrukturze — co jest szczególnie ważne w środowiskach o wysokiej przepustowości lub w czasie rzeczywistym.
- Wysoka jakość rozumowania bez narzutu : zachowuje dużą część mocy rozumowania modeli najwyższej klasy, takich jak R1-0528, ale bez ich rozwlekłości. Jest to idealne rozwiązanie do zadań strukturalnych (matematyka, programowanie, logika), w których preferowane są zwięzłe odpowiedzi.
- Otwarte i modyfikowalne : licencja MIT zapewnia pełną kontrolę wdrożenia i dostosowywanie, umożliwiając hosting prywatny, dopasowywanie modeli lub dalsze szkolenia w ramach środowisk regulowanych lub odizolowanych od sieci.
- Nowa modułowość : Podejście AoE sugeruje przyszłość, w której modele będą budowane modułowo, umożliwiając przedsiębiorstwom składanie wyspecjalizowanych wariantów poprzez łączenie mocnych stron istniejących modeli, zamiast ponownego szkolenia od podstaw.
- Zastrzeżenia : Przedsiębiorstwa, które opierają się na wywoływaniu funkcji, korzystaniu z narzędzi lub zaawansowanej orkiestracji agentów, powinny zwrócić uwagę na obecne ograniczenia, choć przyszłe aktualizacje Chimery mogą wyeliminować te luki.
TNG zachęca badaczy, deweloperów i użytkowników korporacyjnych do eksploracji modelu, testowania jego zachowania i przekazywania opinii. R1T2 Chimera jest dostępna na huggingface.co/tngtech/DeepSeek-TNG-R1T2-Chimera , a zapytania techniczne można kierować na adres [email protected] .
Informacje na temat podstaw technicznych i metodologii testów porównawczych można znaleźć w artykule badawczym TNG pod adresem arXiv:2506.14794 .
Jeśli chcesz zaimponować swojemu szefowi, VB Daily ma dla Ciebie rozwiązanie. Dajemy Ci wewnętrzny wgląd w to, co firmy robią z generatywną sztuczną inteligencją, od zmian regulacyjnych po praktyczne wdrożenia, dzięki czemu możesz dzielić się spostrzeżeniami, aby uzyskać maksymalny zwrot z inwestycji.
Przeczytaj naszą Politykę prywatności
Dziękujemy za subskrypcję. Sprawdź więcej newsletterów VB tutaj .
Wystąpił błąd.

venturebeat