AI

OpenAI przedstawia nowe modele o1 z zaawansowanymi umiejętnościami rozwiązywania problemów i ostrzega przed ryzykiem nadużyć

OpenAI osiągnęło duży postęp technologiczny dzięki modelom o1, jednocześnie jednak ostrzega przed zwiększonym ryzykiem nadużycia, szczególnie w kontekście rozwoju broni biologicznej.

Eulerpool News 14 wrz 2024, 13:12

OpenAI przedstawiło w czwartek swoje najnowsze modele o1, które oferują znaczące postępy w zakresie logicznego myślenia, rozwiązywania problemów i odpowiadania na pytania naukowe. Modele te są postrzegane jako kluczowy krok w kierunku rozwoju sztucznej ogólnej inteligencji (AGI) – maszyn, które osiągają zdolność myślenia na poziomie ludzkim.

W towarzyszącej mapie systemu opisującej funkcjonowanie sztucznej inteligencji, OpenAI przyznaje jednak, że nowe modele również "znacznie zwiększyły" ryzyko nadużycia technologii, szczególnie w związku z wytwarzaniem broni biologicznej. Po raz pierwszy firma nadała swoim modelom "średnią ocenę ryzyka" w odniesieniu do broni chemicznej, biologicznej, radiologicznej i nuklearnej (CBRN). Oznacza to, że technologia znacznie poprawiła zdolności ekspertów w zakresie opracowywania broni biologicznej.

Zaawansowane oprogramowanie AI zdolne do przeprowadzania krok po kroku logicznych argumentacji niesie zwiększone ryzyko nadużyć według ekspertów. Yoshua Bengio, jeden z czołowych światowych badaczy AI, podkreślił pilność wprowadzenia regulacji prawnych, aby zminimalizować te zagrożenia. Wskazał na projekt ustawy w Kalifornii, który wymagałby od firm podjęcia środków bezpieczeństwa, aby zapobiec wykorzystaniu AI do rozwoju broni biologicznej. „Im bardziej AI zmierza w kierunku AGI, tym większe stają się ryzyka, jeśli nie ma odpowiednich środków ochronnych”, ostrzegł Bengio.

Przedsiębiorstwa technologiczne, takie jak Google, Meta i Anthropic, również pracują nad rozwojem zaawansowanych systemów sztucznej inteligencji. Ci agenci AI mogą wspierać ludzi w wykonywaniu zadań i oferować potencjalnie opłacalne możliwości biznesowe dla firm, które stają w obliczu ogromnych kosztów związanych z rozwojem AI.

Mira Murati, dyrektor techniczny OpenAI, powiedziała Financial Times, że firma zachowuje szczególną ostrożność przy wprowadzaniu modeli o1, ponieważ mają one szerokie możliwości. Modele te będą jednak dostępne poprzez ChatGPT dla płacących subskrybentów oraz poprzez API dla programistów. Murati dodała, że modele przeszły obszerne testy bezpieczeństwa i wypadły znacznie lepiej pod względem bezpieczeństwa w porównaniu do wcześniejszych wersji.

Rozpoznaj niedowartościowane akcje jednym spojrzeniem.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Subskrypcja za 2 € / miesiąc

Wiadomości