Ulepszona pamięć: nowy punkt sporny i kontrowersje na rynku sztucznej inteligencji

Streszczenie OpenAI i Google inwestują w zwiększoną pojemność pamięci dla asystentów AI, co umożliwi bardziej spersonalizowane i kontekstowe odpowiedzi.
OpenAI i Google zdają się zgadzać co do jednej rzeczy: aby ich asystenci ze sztuczną inteligencją mogli wyjść poza rolę prostych chatbotów i stać się prawdziwymi cyfrowymi towarzyszami, niezbędna staje się możliwość zapamiętywania tego, co zostało powiedziane. W zeszłym tygodniu przyszła kolej na Gemini, sztuczną inteligencję Google, która objęła inicjatywę aktywowania tzw. „ulepszonej pamięci”.
Ulepszona pamięć w przypadku sztucznej inteligencji odnosi się do zdolności zapamiętywania i wykorzystywania informacji z poprzednich interakcji w celu zapewnienia bardziej spersonalizowanych i kontekstowych odpowiedzi, umożliwiając ciągłość rozmów i dostosowywanie się do preferencji użytkownika. Może się to wydawać szczegółem technicznym bez większego znaczenia, ale ta funkcjonalność całkowicie zmienia sposób, w jaki wchodzimy w interakcję ze sztuczną inteligencją.
Dzięki nowej funkcji, początkowo dostępnej wyłącznie dla subskrybentów Gemini Advanced w ramach planu Google One AI Premium oraz w wersji angielskiej, Gemini może teraz przywoływać wcześniejsze interakcje i wykorzystywać ten kontekst do udzielania trafniejszych odpowiedzi. Oznacza to, że użytkownicy mogą kontynuować poprzednie konwersacje bez konieczności zaczynania od nowa lub przeszukiwania wcześniejszych wątków. Dodatkowo Gemini może zostać poproszony o podsumowanie poprzednich dyskusji i rozwinięcie istniejących projektów.
„Niezależnie od tego, czy zadajesz pytanie o coś, co już zostało omówione, czy prosisz Gemini o podsumowanie poprzedniej rozmowy, Gemini wykorzystuje teraz informacje z odpowiednich czatów, aby opracować odpowiedź” — informuje Google.
ChatGPT już pozwala użytkownikowi aktywować pamięć, ale nie jest to jeszcze udoskonalona wersja [spekuluje się na ten temat, m.in. za pomocą zrzutów ekranu, w mediach społecznościowych]. Gemini również miał już taką możliwość, ale różnica polega teraz na tym, że pozwala ona sztucznej inteligencji na odwoływanie się do wcześniejszych dyskusji, jak podkreślono powyżej.
Korzyści i opiekaPomysł asystenta, który zapamiętuje Twoje preferencje i projekty, jest atrakcyjny dla każdego, kto wykorzystuje generatywną sztuczną inteligencję do powtarzających się zadań.
Pomyśl o studencie, który może wrócić do badań bez konieczności ponownego kontekstualizowania wszystkiego lub o profesjonaliście, który deleguje zadania asystentowi bez powtarzania instrukcji. Nawet w zastosowaniach korporacyjnych pamięć ta może stanowić czynnik różnicujący przy prowadzeniu historii żądań i udoskonaleń w ramach dłuższych projektów.
Jak widać, obiecane możliwości są ogromne, jednak oprócz wygody pojawia się wątpliwość: w jakim stopniu te interakcje są chronione?
Ogłaszając nową funkcję, Google nie tylko obiecało udostępnić ją większej liczbie użytkowników i w większej liczbie języków, ale także podkreśliło, że to użytkownicy mają kontrolę nad tym, jakie informacje są przechowywane. Użytkownik może przejrzeć, usunąć lub zachować historię czatów na określony czas, uzyskując dostęp do ustawienia „Aktywność aplikacji Gemini” w menu profilu. Bliźnięta będą również wizualnie sygnalizować, kiedy wykorzystują informacje z poprzednich rozmów do formułowania odpowiedzi.
W tym kontekście pamięć asystentów AI można postrzegać jako miecz obosieczny. Z jednej strony sprawia, że korzystanie z technologii jest bardziej efektywne i intuicyjne. Z drugiej strony rodzi to pytania o bezpieczeństwo danych i wykorzystywanie tych informacji do trenowania modeli bez wyraźnej zgody, w niektórych przypadkach. Innymi słowy, pamięć nie jest tylko dodatkiem do produktu – z pewnością stanie się tematem dalszych debat i kontrowersji wokół generatywnej sztucznej inteligencji.
Obecnie wyzwaniem jest znalezienie równowagi między wygodą i bezpieczeństwem. Jeśli duże firmy technologiczne naprawdę chcą zdobyć lub wzbudzić zaufanie do swoich rozwiązań SI, muszą zadbać o to, aby pamięć pełniła funkcję zasobu służącego użytkownikowi, a nie tylko kolejnego źródła gromadzenia danych.
Ewolucja sztucznej inteligencji, jak zapewne wiecie, czytający nasz newsletter, jest oczywista, a pamięć może odegrać w tym decydującą rolę. Pozostaje pytanie, kto będzie w stanie zapewnić najlepsze doświadczenie, nie narażając jednocześnie prywatności użytkownika.
W końcu sztuczna inteligencja, która nie wzbudza zaufania (prawdziwego, a nie sztucznego…), na rozwijającym się rynku, całkowicie uniemożliwia przyciąganie, zdobywanie i zatrzymywanie nowych użytkowników. A to, co miało być niezastąpionym narzędziem, staje się mglistym wspomnieniem...
(*) Alexandre Gonçalves jest dziennikarzem, założycielem agenteINFORMA – cyfrowej treści i produktów, a także redaktorem newsletterów agenteGPT (spostrzeżenia i doświadczenia użytkowników ChatGPT) i agenTV3 (monitoruje i opracowuje wiadomości na temat wdrażania TV 3.0 w Brazylii) .
terra