Sprache auswählen

German

Down Icon

Land auswählen

France

Down Icon

Laut US-Gericht kann KI ohne Erlaubnis oder Urheberrecht mit einem Buch gefüttert werden

Laut US-Gericht kann KI ohne Erlaubnis oder Urheberrecht mit einem Buch gefüttert werden

Das Trainieren künstlicher Intelligenzmodelle mit Büchern, ob gekauft oder nicht, ist gemäß der „Fair Use“ -Doktrin zulässig, entschied ein Bundesrichter.

Ein US-Richter entschied am Montag, dass das Unternehmen Anthropic seine KI-Modelle an urheberrechtlich geschützten Büchern trainieren darf, ohne die Erlaubnis der Urheberrechtsinhaber einzuholen. Diese Entscheidung könnte einen wichtigen Meilenstein in der KI-Entwicklung darstellen. Laut einem Bundesrichter in San Francisco ist das Trainieren dieser KI-Modelle an Büchern, ob gekauft oder nicht, gemäß der „Fair Use“ -Doktrin des US-Urheberrechts zulässig.

„Die Verwendung der fraglichen Bücher, um Claude zu trainieren, führte zu dramatischen Veränderungen und fiel in den Rahmen des fairen Gebrauchs“, schrieb der Richter in seiner Entscheidung. Er nannte KI „eine der revolutionärsten Technologien, die viele von uns in ihrem Leben erleben werden“ und verglich das KI-Training mit dem, was Menschen durch das Lesen von Büchern durchführen. Enorme Datenmengen werden benötigt, um Sprachmodelle für generative KI wie ChatGPT, einen von Claudes Konkurrenten, zu trainieren. Anthropic, mit einem Wert von 61,5 Milliarden Dollar und größtenteils von Amazon finanziert, wurde 2021 von ehemaligen Ingenieuren von OpenAI gegründet, dem Unternehmen, das Chat GPT entwickelt hat. Es fördert, noch deutlicher als seine Konkurrenten, eine verantwortungsvolle KI-Entwicklung.

Zahlreiche Musiker, Künstler, Medien und Autoren – darunter Andrea Bartz, Charles Graeber und Kirk Wallace Johnson von Anthropic – haben Klagen gegen mehrere KI-Unternehmen eingereicht, weil diese ihre Daten unberechtigt oder unentgeltlich nutzen. Diese Unternehmen verteidigen sich in der Regel mit der Fair-Use-Doktrin und argumentieren, dass das Training von KI mit großen Datenmengen ursprüngliche Inhalte radikal verändere und für Innovationen notwendig sei. Ein Sprecher von Anthropic äußerte sich erfreut darüber, dass „der Richter anerkannt hat, dass die Verwendung von Werken zum Trainieren großer Modelle eine Quelle der Innovation ist“ . Diese Entscheidung „steht im Einklang mit dem Ziel des Urheberrechts, Kreativität zu ermöglichen und den wissenschaftlichen Fortschritt zu fördern“, so dieselbe Quelle.

Der Richter ließ Anthropic jedoch keinen Freifahrtschein, da die Praxis, Millionen von Raubkopien herunterzuladen, um eine dauerhafte digitale Bibliothek aufzubauen, nicht mit dem Fair Use vereinbar sei. Neben dem Herunterladen von Raubkopien kaufte das Unternehmen laut Gerichtsdokumenten auch Bücher, um sie zu scannen und digital zu speichern. Anthropic wolle zudem eine Bibliothek „aller Bücher der Welt“ zusammenstellen, um seine KI-Modelle nach Belieben zu trainieren, so der Richter. Er befand, dies stelle unabhängig vom verfolgten Ziel eine Urheberrechtsverletzung dar.

Die Entscheidung vom Montag ist vorläufig. Anschließend wird der Fall vor einem Zivilprozess verhandelt, um zu entscheiden, ob Anthropic Schadensersatz zugesprochen werden soll.

lefigaro

lefigaro

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow