AI

Avoimen lähdekoodin tekoäly: Tasapainottelua läpinäkyvyyden ja turvallisuuden välillä

Avoimien tekoälyjärjestelmien kehitys kiihtyy, mutta kohtaa haasteita läpinäkyvyyden ja turvallisuuden osalta.

Eulerpool News 24. elok. 2024 klo 15.44

Avoimen lähdekoodin tekoälyn kehitys on viime kuukausina vauhdittunut huomattavasti

Eräs merkittävä esimerkki on Metan Llama. Vaikka julki tuodaan "Weights"-parametrit, jotka määrittävät, miten malli reagoi pyyntöihin, taustalla olevat harjoitusaineistot pysyvät piilossa. Vaikka tämä mahdollistaa sen, että kehittäjät voivat mukauttaa mallia, siitä puuttuu läpinäkyvyys, jotta malli voitaisiin luoda alusta alkaen uudelleen.

Kehittäjille tämä rajoitettu avoimuus tarjoaa kuitenkin etuja. He voivat mukauttaa puoliksi avoimia malleja ja kouluttaa niitä omilla tiedoillaan ilman, että he joutuvat jakamaan arkaluonteisia tietoja kolmansien osapuolien yrityksille. Mutta näillä rajoituksilla on hintansa. Ayah Bdeir, Mozilla Foundationin johtava neuvonantaja, korostaa, että vain todella avoimet teknologiat mahdollistavat kattavan ymmärryksen järjestelmistä, jotka kasvavassa määrin vaikuttavat elämämme kaikkiin osa-alueisiin. Lisäksi vain todella avoimet järjestelmät voivat varmistaa, että innovaatiota ja kilpailua ei tukahduteta joidenkin harvojen hallitsevien tekoälyyritysten toimesta.

Reaktiona tähän on Open Source Initiative, joka loi yli 20 vuotta sitten määritelmän avoimen lähdekoodin ohjelmistolle, esittänyt lähes lopullisen määritelmän avoimen lähdekoodin tekoälylle. Tämä määritelmä ei vaadi pelkästään ”Weights”-tietojen julkaisua, vaan myös riittävät tiedot opetusdatasta ja taustalla olevasta koodista, jotta mallin voi toistaa.

Tämä suuntaus johtaa jo vahvempaan segmentoitumiseen AI-maailmassa. Monet yritykset käsittelevät terminologiaansa varovaisemmin välttääkseen oikeudellisia kiistoja. Niinpä Mistral kutsuu Nemo-malliaan "Open Weights" ja välttää tietoisesti "Open Source" -termiä.

Sillä välin kun osittain avoimet järjestelmät voittavat alaa, syntyy myös täysin avoimia malleja, kuten Allen Institute for AI:n Olmo-kielimalli. Mutta jää nähtäväksi, tulevatko nämä todella vaikuttamaan tekoälymaailmaan samalla tavalla kuin avoimen lähdekoodin ohjelmistot teknologia-alalla.

Seuraavien kahden asian täytyisi toteutua, jotta avoimet tekoälymallit saisivat läpimurron.

Toinen seikka on, että avoimen tekoälyn kannattajien tulisi esittää vakuuttavampia perusteluita sen turvallisuuden puolesta. Näkemys, että näin voimakas ja yleinen teknologia olisi kaikkien saatavilla, herättää oikeutettuja huolia. Oren Etzioni, entinen Allen-instituutin johtaja, kuitenkin uskoo, että monet näistä peloista ovat liioiteltuja. Hän väittää, että ne tiedot, jotka tulevat saataville tekoälymallien kautta, eivät ole olennaisesti erilaisia kuin se, mitä Googlella on jo tarjolla.

Vaikka avoimen tekoälyteknologian mahdollisia riskejä ja hyötyjä ei ole vielä perusteellisesti tutkittu, huolenaiheet tulevat kuitenkin pysymään.

Tee elämäsi parhaat sijoitukset

Alkaen 2 euroa

Uutiset