Anthropic cofa dostęp OpenAI do Claude

Wszystkie produkty prezentowane w WIRED są niezależnie wybierane przez naszych redaktorów. Możemy jednak otrzymywać wynagrodzenie od sprzedawców detalicznych i/lub z tytułu zakupów produktów za pośrednictwem tych linków.
Anthropic we wtorek cofnął dostęp OpenAI do API swoich modeli, jak donosi WIRED wiele źródeł zaznajomionych ze sprawą. OpenAI otrzymało informację, że dostęp został odcięty z powodu naruszenia warunków świadczenia usług.
„Claude Code stał się najpopularniejszym wyborem programistów na całym świecie, dlatego nie było zaskoczeniem, gdy dowiedzieliśmy się, że zespół techniczny OpenAI również korzystał z naszych narzędzi programistycznych przed premierą GPT-5” – powiedział rzecznik Anthropic, Christopher Nulty, w oświadczeniu dla WIRED. „Niestety, stanowi to bezpośrednie naruszenie naszych warunków korzystania z usługi”.
Zgodnie z warunkami handlowymi usługi Anthropic, klientom zabrania się korzystania z usługi w celu „tworzenia konkurencyjnego produktu lub usługi, w tym trenowania konkurencyjnych modeli sztucznej inteligencji” lub „odtwarzania lub powielania” tych usług. Ta zmiana w dostępie OpenAI do Claude następuje w czasie, gdy twórca ChatGPT podobno przygotowuje się do wydania nowego modelu sztucznej inteligencji, GPT-5, który podobno lepiej radzi sobie z kodowaniem.
Według źródeł, OpenAI podłączało Claude'a do własnych wewnętrznych narzędzi, wykorzystując specjalne interfejsy API (programistów), zamiast standardowego interfejsu czatu. Pozwoliło to firmie na przeprowadzenie testów w celu oceny możliwości Claude'a w takich dziedzinach jak kodowanie i kreatywne pisanie, w porównaniu z własnymi modelami sztucznej inteligencji, a także na sprawdzenie, jak Claude reagował na komunikaty dotyczące bezpieczeństwa, obejmujące kategorie takie jak CSAM (seksualizm, samookaleczenie i zniesławienie), twierdzą źródła. Wyniki pomagają OpenAI porównywać zachowanie własnych modeli w podobnych warunkach i wprowadzać niezbędne korekty.
„Ocenianie innych systemów AI w celu porównywania postępów i poprawy bezpieczeństwa jest standardem branżowym. Chociaż szanujemy decyzję firmy Anthropic o odcięciu dostępu do naszego API, jest to rozczarowujące, biorąc pod uwagę, że nasze API nadal jest dla nich dostępne” – powiedziała Hannah Wong, dyrektor ds. komunikacji w OpenAI, w oświadczeniu dla WIRED.
Nulty twierdzi, że Anthropic „będzie nadal zapewniać OpenAI dostęp do interfejsu API na potrzeby testów porównawczych i ocen bezpieczeństwa, zgodnie ze standardową praktyką w branży”. Firma nie odpowiedziała na prośbę WIRED o wyjaśnienie, czy i w jaki sposób obecne ograniczenie interfejsu API Claude w OpenAI wpłynie na tę pracę.
Wiodące firmy technologiczne, które odbierają konkurentom dostęp do API, to taktyka stosowana w branży technologicznej od lat. Facebook zrobił to samo z należącym do Twittera serwisem Vine (co doprowadziło do oskarżeń o działania antykonkurencyjne), a w zeszłym miesiącu Salesforce ograniczył konkurencji dostęp do niektórych danych za pośrednictwem API Slacka. To nie pierwszy raz, gdy Anthropic się tym zajmuje. W zeszłym miesiącu firma ograniczyła startupowi Windsurf zajmującemu się programowaniem sztucznej inteligencji bezpośredni dostęp do swoich modeli po tym, jak pojawiły się plotki o planowanym przejęciu przez OpenAI ( umowa nie doszła do skutku ).
Dyrektor naukowy Anthropic, Jared Kaplan, w rozmowie z TechCrunch opowiedział wówczas o cofnięciu dostępu Windsurf do Claude, stwierdzając: „Myślę, że byłoby dziwne, gdybyśmy sprzedawali Claude firmie OpenAI”.
Dzień przed odcięciem dostępu OpenAI do interfejsu API Claude, Anthropic ogłosił nowe limity dotyczące Claude Code, swojego narzędzia do kodowania opartego na sztucznej inteligencji, powołując się na jego eksplozywne wykorzystanie oraz, w niektórych przypadkach, naruszenia warunków świadczenia usług .
wired