Otwarta sztuczna inteligencja: balansowanie między przejrzystością a bezpieczeństwem

Rozwój otwartych systemów AI nabiera tempa, jednak napotyka na wyzwania w zakresie przejrzystości i bezpieczeństwa.

24.08.2024, 15:44
Eulerpool News 24 sie 2024, 15:44

Ostatnimi miesiącami rozwój otwartej sztucznej inteligencji (SI) zyskał znacznie na dynamice. W środowisku, w którym firmy takie jak OpenAI i Google inwestują miliardy w coraz bardziej wydajne systemy SI, otwarte modele osiągnęły niezwykłe postępy. Jednak pomimo pozornego sukcesu ujawnia się kluczowa słabość: wiele z tych tak zwanych otwartych systemów jest w rzeczywistości tylko częściowo otwartych.

Oto wybitny przykład: Llama od Meta. Chociaż ujawniane są „Wagi”, które określają, jak model reaguje na zapytania, podstawowe dane treningowe pozostają ukryte. To umożliwia programistom dostosowanie modelu, ale brakuje przejrzystości, aby stworzyć model od podstaw.

Für Entwickler hat diese eingeschränkte Offenheit dennoch Vorteile. Sie können quasi-offene Modelle anpassen und auf ihre eigenen Daten trainieren, ohne sensible Informationen an Drittunternehmen weitergeben zu müssen. Doch diese Einschränkungen haben ihren Preis. Ayah Bdeir, eine Senior-Beraterin der Mozilla Foundation, betont, dass nur wirklich offene Technologien ein umfassendes Verständnis der Systeme ermöglichen, die zunehmend alle Bereiche unseres Lebens beeinflussen. Zudem könnten nur wirklich offene Systeme sicherstellen, dass Innovation und Wettbewerb nicht von einigen wenigen dominanten KI-Unternehmen erstickt werden.

Dla deweloperów taka ograniczona otwartość ma jednak swoje zalety. Mogą dostosowywać quasi-otwarte modele i trenować je na własnych danych, bez konieczności udostępniania wrażliwych informacji firmom trzecim. Jednakże takie ograniczenia mają swoją cenę. Ayah Bdeir, starsza doradczyni Mozilla Foundation, podkreśla, że tylko naprawdę otwarte technologie umożliwiają pełne zrozumienie systemów, które w coraz większym stopniu wpływają na wszystkie obszary naszego życia. Ponadto tylko naprawdę otwarte systemy mogą zapewnić, że innowacje i konkurencja nie zostaną zduszone przez kilka dominujących firm zajmujących się sztuczną inteligencją.

W odpowiedzi na to, Open Source Initiative, która ponad 20 lat temu ustanowiła definicję oprogramowania open-source, przedstawiła niemal finalną definicję dla Open-Source KI. Ta definicja wymaga nie tylko ujawnienia „Weights”, ale także dostatecznych informacji o danych treningowych i bazowym kodzie, aby możliwe było odtworzenie modelu.

Ta zmiana prowadzi już do silniejszej segmentacji w świecie sztucznej inteligencji. Wiele firm ostrożniej posługuje się swoją terminologią, aby uniknąć sporów prawnych. Mistral nazywa swój model Nemo „Open Weights” i świadomie unika terminu „Open Source”.

Gdy częściowo otwarte systemy zyskują na popularności, pojawiają się również w pełni otwarte modele, takie jak model językowy Olmo z Allen Institute for AI. Jednak czy będą one miały taki sam wpływ na świat AI jak oprogramowanie open-source na branżę technologiczną, pozostaje do zobaczenia.

Um einen Durchbruch offener KI-Modelle zu erreichen, wären zwei Dinge notwendig.

Po drugie, zwolennicy otwartej sztucznej inteligencji muszą przedstawić bardziej przekonujące argumenty na rzecz jej bezpieczeństwa. Możliwość udostępnienia tak potężnej, uniwersalnej technologii każdemu budzi uzasadnione obawy. Oren Etzioni, były szef Allen Institute, uważa jednak, że wiele z tych obaw jest przesadzonych. Twierdzi, że informacje udostępniane przez modele sztucznej inteligencji nie różnią się istotnie od tego, co jest już dostępne przez Google.

Dopóki potencjalne ryzyka i korzyści związane z otwartym udostępnianiem technologii sztucznej inteligencji nie zostaną dokładniej zbadane, obawy będą jednak pozostawały.

Rozpoznaj niedowartościowane akcje jednym spojrzeniem.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Subskrypcja za 2 € / miesiąc

Wiadomości