AI
Požiadavka na právo varovať pred pokročilou umelou inteligenciou
„Mám strach. Bolo by šialené nebáť sa,“ hovorí bývalý zamestnanec pre Vox.

Zamestnanci popredných spoločností v oblasti umelej inteligencie zverejnili v utorok neobvyklý návrh a požadujú právo upozorňovať na riziká pokročilej umelej inteligencie. 13 signatárov, medzi ktorými sú súčasní a bývalí zamestnanci OpenAI a Google DeepMind, zdôrazňuje potrebu ochranných opatrení na zabránenie potenciálnym škodám spôsobeným technológiou umelej inteligencie.
„Mám strach. Bolo by šialené nemať strach,“ povedal Daniel Kokotajlo, ktorý v apríli opustil spoločnosť po strate dôvery v vedenie OpenAI. Viacerí bezpečnostne uvedomelí zamestnanci v poslednom čase odišli z podobných dôvodov, čo zvyšuje obavy, že OpenAI neberie riziká technológie dostatočne vážne.
Návrh, ktorý podporujú renomovaní odborníci ako Geoffrey Hinton, Yoshua Bengio a Stuart Russell, má za cieľ zmeniť motivácie pre spoločnosti zaoberajúce sa umelou inteligenciou tým, že ich činnosti budú transparentnejšie. Signatári požadujú, aby mohli vyjadriť svoje obavy predstavenstvám spoločností, regulačným orgánom a nezávislým odborným organizáciám bez obáv z represií.
Ein Sprecher von OpenAI zdôraznil, že už existujú platformy ako poradenské hodiny vedenia, Q&A stretnutia s predstavenstvom a anonymná integračná linka, prostredníctvom ktorých môžu zamestnanci vyjadriť svoje názory.
„Bežné opatrenia na ochranu whistleblowerov sú nedostatočné, pretože sa zameriavajú na nezákonné aktivity, zatiaľ čo mnohé z rizík, ktoré nás znepokojujú, ešte nie sú regulované,“ píšu signatári v návrhu. Najali si pro bono právnika Lawrence Lessiga, ktorý predtým radil whistleblowerke z Facebooku Frances Haugen.
Ďalšou požiadavkou signatárov je ukončenie dohôd o neohováraní, ktoré bránia zasvätencom vyjadrovať obavy súvisiace s rizikami. Bývalí zamestnanci OpenAI sa často cítili umlčaní takýmito dohodami.
Jan Leike, bývalý vedúci tímu pre Alignment v spoločnosti OpenAI, uviedol, že „bezpečnostná kultúra a procesy museli ustúpiť lesklým produktom“. Carroll Wainwright, ktorý minulý týždeň odišiel z podobných dôvodov, tiež vyjadril obavy o incentívy v OpenAI.
Otázkou zostáva, ako zmeniť základnú štruktúru stimulov v odvetví umelej inteligencie. OpenAI začala ako nezisková organizácia, ale musela vytvoriť ziskovú divíziu a uzavrieť partnerstvo s Microsoftom, aby mohla financovať potrebný výpočtový výkon. Aj konkurenčná firma Anthropic, ktorú založili bývalí zamestnanci OpenAI, sa nakoniec musela spojiť s Amazonom.
„Incidenty z minulého novembra ukázali, že predstavenstvo nemá takú razanciu, akú by sme očakávali,“ povedal Wainwright. Preto signatári neveria, že individuálne štruktúry riadenia spoločnosti sú dostatočné na zabezpečenie účinného dohľadu.
Okrem regulácie považujú signatári právo zamestnancov varovať verejnosť za rozhodujúce. Insiderom by malo byť umožnené otvorene hovoriť o rizikách, ktoré vidia, aby prinútili spoločnosti tieto riziká brať vážne. To by bolo prínosné pre všetkých, bez ohľadu na to, aký typ rizika AI ich znepokojuje.