Tekoäly-yritys OpenAI on julkaissut tutkimusraportin, jossa se arvioi uuden GPT-4o-mallinsa turvallisuutta. Raportissa todetaan, että mallin riskitaso on ”keskitasoinen”.
OpenAI on joutunut viime aikoina kovaan kritiikkiin turvallisuuskulttuurinsa suhteen. Yhtiö on kuitenkin pyrkinyt lisäämään avoimuutta julkaisemalla raportteja mallien arvioinneista. GPT-4o:n kohdalla yhtiö on käyttänyt ulkopuolisia turvallisuustestaajia, jotka ovat analysoineet mallin mahdollisia riskialttiuksia, kuten kykyä luoda vääriä ääniä, luoda seksuaalis- ja väkivaltaista sisältöä tai kopioida tekijänoikeudella suojattua ääntä.
Vaikka GPT-4o:n kykyä manipuloida lukijaa on pidetty keskimääräistä parempana, ei malli ole kokonaisuudessaan vakuuttavampi kuin ihmiesen kirjoittama teksti. OpenAI korostaa, että yhtiö on testannut mallia erilaisissa tosielämän skenaarioissa, jotta väärinkäytön riskiä voitaisiin vähentää.
Huolimatta ulkopuolisten asiantuntijoiden osallistumisesta arviointiin, OpenAI:n oma arviointiprosessi on edelleen keskeisessä roolissa. Kaliforniassa on parhaillaan vireillä laki, joka asettaisi tiukempia vaatimuksia tekoälymalleille ja niiden turvallisuustesteille.