ChatGPT skandaalisoi norjalaisia: vääriä murhasyytöksiä paljastui!
Artikkeli korostaa OpenAI:n juridisia haasteita sen jälkeen, kun ChatGPT merkitsi norjalaisen väärin murhaajaksi.
ChatGPT skandaalisoi norjalaisia: vääriä murhasyytöksiä paljastui!
Järkyttävä tapaus herättää kohua Euroopassa: norjalainen Arve Hjalmar Holmen on noussut otsikoihin sen jälkeen, kun ChatGPT, OpenAI:n tekoälypohjainen chatbot, levitti hänestä vääriä ja loukkaavia tietoja. Tekijän raportin mukaan Cosmo Holmen kuvattiin valheellisesti tuomituksi murhaajaksi, joka oli tappanut kaksi lastaan ja yrittänyt murhata kolmannen poikansa. Tekoäly sekoitti tähän kauhistuttavaan tarinaan todellisia yksityiskohtia Holmenin elämästä, mikä vain pahensi tilannetta.
Nämä harhaanjohtavat "hallusinaatiot", joissa tekoäly kertoo keksittyjä tarinoita, ovat jo aiemmin johtaneet tuhoisiin seurauksiin niille, joita se koskee. Toinen esimerkki ovat valheelliset syytökset korruptiosta, jonka teknologia on luonut. Holmen ryhtyi sitten oikeustoimiin ryhtyäkseen toimiin OpenAI:ta vastaan, koska yleinen tietosuoja-asetus (GDPR) asettaa selkeät vaatimukset henkilötietojen tarkkuudelle. Edunvalvontaryhmä Noyb tukee häntä tässä asiassa ja on ottanut yhteyttä Norjan tietosuojaviranomaiseen.
Oikeudelliset seuraukset OpenAI:lle
GDPR vaatii yrityksiä varmistamaan yksilöistä luotujen tietojen oikeellisuuden. Kritiikkiä tuli Noybilta, jonka mukaan OpenAI ei tarjoa mahdollisuutta korjata virheellisiä tietoja ja että ne jäävät järjestelmään. Noybin edellinen valitus huhtikuussa 2024 nosti esiin samanlaisia ongelmia, mutta se ei johtanut toivottuihin muutoksiin. Tilanteen vakavuudesta osoittaa, että tämän tapauksen jälkeen OpenAI on nyt päivittänyt tapaa, jolla ChatGPT toimii, jolloin tekoäly voi etsiä tietoa ihmisistä Internetistä. Holmenia ei ole enää väärin lueteltu murhaajaksi - mutta mahdollisuus väärien ja herjaavien tietojen jäämiseen tekoälyyn säilyy. Noybin asianajaja korosti, että pelkkä pieni varoitus mahdollisista virheistä ei riitä, kun ihmisistä levitetään vakavia vääriä lausuntoja.
Vaikka Euroopan tietosuojaviranomaiset seuraavat tarkasti kehitystä, Noyb vaatii, että lakeja valvotaan myös tekoälyn tarjoajia vastaan. Muut ChatGPT:tä koskevat valitukset osoittavat, että ongelma on monimutkaisempi ja että on tärkeää asettaa selkeät käytännöt henkilötietojen suojaamiseksi.