IBM Granite 3.2 nutzt bedingtes Denken, Zeitreihenprognosen und Dokumentenvision, um anspruchsvolle Unternehmensanwendungsfälle zu bewältigen

Abonnieren Sie unsere täglichen und wöchentlichen Newsletter, um die neuesten Updates und exklusiven Inhalte zur branchenführenden KI-Berichterstattung zu erhalten. Mehr erfahren
Nach dem disruptiven Debüt von DeepSeek-R1 waren Reasoning-Modelle im Jahr 2025 bislang der letzte Schrei.
IBM schließt sich der Party an und stellt heute seine Granite 3.2-Familie von Large Language Models (LLM) vor. Im Gegensatz zu anderen Reasoning-Ansätzen wie DeepSeek-R1 oder OpenAIs o3 integriert IBM Reasoning tief in seine Open-Source-Kernmodelle von Granite . Es handelt sich um einen Ansatz, den IBM als bedingtes Reasoning bezeichnet, bei dem das schrittweise Chain-of-Thinking (CoT) eine Option innerhalb der Modelle ist (und nicht ein separates Modell darstellt).
Es handelt sich um einen flexiblen Ansatz, bei dem das Reasoning mit einem Flag bedingt aktiviert werden kann, sodass Benutzer steuern können, wann eine intensivere Verarbeitung verwendet werden soll. Die neue Reasoning-Funktion baut auf den Leistungssteigerungen auf, die IBM mit der Veröffentlichung der Granite 3.1 LLMs im Dezember 2024 eingeführt hat.
IBM bringt in der Granite 3.2-Familie außerdem ein neues Vision-Modell heraus, das speziell für die Dokumentenverarbeitung optimiert ist. Das Modell ist besonders nützlich für die Digitalisierung von Altdokumenten, eine Herausforderung, mit der viele große Organisationen zu kämpfen haben.
Eine weitere Herausforderung im Bereich der Unternehmens-KI, die IBM mit Granite 3.2 lösen möchte, ist die prädiktive Modellierung. Maschinelles Lernen (ML) wird seit Jahrzehnten für Vorhersagen verwendet, verfügt aber nicht über die natürliche Sprachschnittstelle und Benutzerfreundlichkeit der modernen KI-Generation. Hier kommen die Granite-Zeitreihenprognosemodelle von IBM ins Spiel; sie wenden Transformer-Technologie an, um zukünftige Werte aus zeitbasierten Daten vorherzusagen.
„Argumentation ist nicht etwas, was ein Modell ist, sondern etwas, was ein Modell tut“, sagte David Cox, Vizepräsident für KI-Modelle bei IBM Research, gegenüber VentureBeat.
Auch wenn es im Jahr 2025 viel Aufregung und Hype um Reasoning-Modelle gibt, ist Reasoning um seiner selbst willen für Unternehmensbenutzer nicht unbedingt von Wert.
Die Fähigkeit zum logischen Denken ist in vielerlei Hinsicht schon seit langem Teil der KI der Generation. Wenn Sie einen LLM einfach dazu auffordern, in einem schrittweisen Ansatz zu antworten, wird eine grundlegende CoT-Argumentation-Ausgabe ausgelöst. Modernes Argumentieren in Modellen wie DeepSeek-R1 und jetzt Granite 3.2 geht etwas tiefer, indem es bestärkendes Lernen verwendet, um Argumentationsfähigkeiten zu trainieren und zu aktivieren.
Während CoT-Eingabeaufforderungen für bestimmte Aufgaben wie Mathematik effektiv sein können, können die Argumentationsfähigkeiten in Granite 3.2 einer breiteren Palette von Unternehmensanwendungen zugutekommen. Cox merkte an, dass Unternehmen komplexe Entscheidungsprozesse verbessern können, indem sie das Modell dazu anregen, mehr Zeit mit dem Nachdenken zu verbringen. Argumentation kann bei Softwareentwicklungsaufgaben, der Lösung von IT-Problemen und anderen agentenbasierten Arbeitsabläufen von Vorteil sein, bei denen das Modell Probleme aufschlüsseln, bessere Urteile fällen und fundiertere Lösungen empfehlen kann.
IBM behauptet außerdem, dass Granite 3.2 mit aktivierter Argumentation bei Aufgaben zum Befolgen von Anweisungen Konkurrenten wie DeepSeek-R1 übertreffen kann.
Obwohl Granite 3.2 über erweiterte Argumentationsfähigkeiten verfügt, betonte Cox, dass nicht jede Abfrage tatsächlich mehr Argumentation benötigt. Tatsächlich können viele Arten gängiger Abfragen durch mehr Argumentation sogar negativ beeinflusst werden.
Bei einer wissensbasierten Abfrage könnte beispielsweise ein eigenständiges Argumentationsmodell wie DeepSeek-R1 bis zu 50 Sekunden mit einem inneren Monolog verbringen, um eine einfache Frage wie „Wo ist Rom?“ zu beantworten.
Eine der wichtigsten Neuerungen in Granite 3.2 ist die Einführung einer Funktion für bedingtes Denken, mit der Entwickler die Denkfähigkeiten des Modells dynamisch aktivieren oder deaktivieren können. Diese Flexibilität ermöglicht es Benutzern, je nach der jeweiligen Aufgabe ein Gleichgewicht zwischen Geschwindigkeit und Tiefe der Analyse zu finden.
Die Granite 3.2-Modelle gehen noch einen Schritt weiter und profitieren von einer Methode, die von IBMs Red Hat-Geschäftseinheit entwickelt wurde. Diese nutzt einen sogenannten „Partikelfilter“, um flexiblere Denkfähigkeiten zu ermöglichen.
Dieser Ansatz ermöglicht es dem Modell, mehrere Denkstränge dynamisch zu steuern und zu verwalten und zu bewerten, welche am vielversprechendsten sind, um zum Endergebnis zu gelangen. Dies ermöglicht einen dynamischeren und adaptiveren Denkprozess als ein linearer CoT. Cox erklärte, dass diese Partikelfiltertechnik Unternehmen noch mehr Flexibilität bei der Nutzung der Denkfähigkeiten des Modells bietet.
Beim Partikelfilteransatz laufen viele Argumentationsstränge gleichzeitig ab. Der Partikelfilter schneidet die weniger effektiven Ansätze ab und konzentriert sich auf diejenigen, die bessere Ergebnisse liefern. Anstatt also nur CoT-Argumentation durchzuführen, gibt es mehrere Ansätze zur Lösung eines Problems. Das Modell kann komplexe Probleme intelligent bewältigen und sich selektiv auf die vielversprechendsten Argumentationsstränge konzentrieren.
Große Organisationen verfügen in der Regel über ebenso große Mengen an Dokumenten, von denen viele vor Jahren gescannt wurden und nun in Archiven liegen. All diese Daten sind mit modernen Systemen nur schwer zu nutzen.
Das neue Vision-Modell Granite 3.2 wurde entwickelt, um diese Herausforderung für Unternehmen zu lösen. Während sich viele multimodale Modelle auf das allgemeine Bildverständnis konzentrieren, sind die Vision-Funktionen von Granite 3.2 speziell auf die Dokumentenverarbeitung ausgelegt – was IBMs Fokus auf die Lösung konkreter Unternehmensprobleme und nicht auf die Jagd nach Benchmark-Ergebnissen widerspiegelt.
Das System zielt auf das ab, was Cox als „irrationale Mengen alter gescannter Dokumente“ bezeichnete, die in Unternehmensarchiven, insbesondere in Finanzinstituten, lagern. Dabei handelt es sich um undurchsichtige Datenspeicher, die trotz ihres potenziellen Geschäftswerts weitgehend ungenutzt geblieben sind.
Für Unternehmen, die seit Jahrzehnten Papierunterlagen aufbewahren, stellt die Fähigkeit zur intelligenten Verarbeitung von Dokumenten mit Diagrammen, Abbildungen und Tabellen einen erheblichen betrieblichen Vorteil gegenüber allgemeinen multimodalen Modellen dar, die sich hervorragend für die Beschreibung von Urlaubsfotos eignen, bei strukturierten Geschäftsdokumenten jedoch Probleme haben.
Bei Unternehmens-Benchmarks wie DocVQA und ChartQA zeigt IBM Granite Vision 3.2 im Vergleich zur Konkurrenz starke Ergebnisse.
Die vielleicht technisch markanteste Komponente der Version sind die „Tiny Time Mixers“ (TTM) von IBM – spezialisierte, transformerbasierte Modelle, die speziell für die Zeitreihenprognose entwickelt wurden.
Zeitreihenprognosen, die prädiktive Analysen und Modellierungen ermöglichen, sind jedoch nichts Neues. Cox merkte an, dass Zeitreihenmodelle aus verschiedenen Gründen in der älteren Ära des maschinellen Lernens (ML) stecken geblieben sind und nicht von der gleichen Aufmerksamkeit profitieren wie die neueren, auffälligeren KI-Modelle.
Die Granite TTM-Modelle wenden die architektonischen Innovationen, die LLM vorangetrieben haben, auf einen ganz anderen Problembereich an: die Vorhersage zukünftiger Werte auf der Grundlage historischer Muster. Diese Funktion erfüllt wichtige Geschäftsanforderungen in den Bereichen Finanzprognosen, Planung der Gerätewartung und Anomalieerkennung.
Der Hype ist groß und die Anbieter behaupten, sich gegenseitig bei einer endlosen Reihe von Branchen-Benchmarks zu übertreffen.
Für Entscheidungsträger in Unternehmen kann es interessant sein, Benchmarks zu beachten, aber das löst keine Probleme. Cox betonte, dass IBM bei der KI in Unternehmen einen „Anzug-und-Krawatte“-Ansatz verfolgt und echte Probleme lösen will.
„Ich glaube, es herrscht eine Menge magisches Denken, dass wir ein superintelligentes Modell haben könnten, das irgendwie alles macht, was wir von ihm verlangen, aber zumindest im Moment sind wir noch nicht einmal in der Nähe davon“, sagte Cox. „Unsere Strategie ist: ‚Lasst uns echte, praktische Werkzeuge mit dieser sehr spannenden Technologie bauen und so viele Funktionen wie möglich einbauen, die echte Arbeit erleichtern.‘“
Wenn Sie Ihren Chef beeindrucken möchten, ist VB Daily die richtige Adresse für Sie. Wir geben Ihnen Insiderinformationen darüber, was Unternehmen mit generativer KI machen, von regulatorischen Änderungen bis hin zu praktischen Implementierungen, damit Sie Ihre Erkenntnisse weitergeben können, um den ROI zu maximieren.
Lesen Sie unsere Datenschutzrichtlinie
Vielen Dank für Ihr Abonnement. Weitere VB-Newsletter finden Sie hier .
Ein Fehler ist aufgetreten.

venturebeat