ChatGPT OpenAI:n kehittämä suuri kielimalli, vuotaa käyttäjiensä yksityisiä keskusteluja, väittää eräs Ars Technica -lukija.
Nimettömänä pysyvä lukija väittää saaneensa keskusteluja muilta käyttäjiltä, mukaan lukien kirjautumistunnukset, julkaisemattomat tutkielmat ja PHP-skriptit.
Lukija kertoo huomanneensa vuotaneet keskustelut maanantaiaamuna käytettyään ChatGPT:tä epäsuoraan kysymykseen. Keskustelut näkyivät heidän chat-historiassaan, vaikka he eivät olleet aloittaneet niitä. Lukija väittää myös, että keskustelut olivat eri vuosilta, mikä viittaa siihen, että vuoto on jatkunut jo jonkin aikaa.
OpenAI ei ole vielä kommentoinut syytöksiä.
Viimeisin vuoto herättää huolta ChatGPT:n käyttäjien yksityisyydestä. Jos Tekoäly-chatbot pystyy vuotamaan yksityisiä keskusteluja, on mahdollista, että se voisi myös altistaa muita herkkiä tietoja, kuten taloudellisia tietoja tai henkilötunnuksia.
ChatGPT:n käyttäjien tulisi olla tietoisia mahdollisuudesta, että yksityiset keskustelut voivat vuotaa. Heidän tulisi välttää jakamasta mitään herkkää tietoa tekoäly-chatbotin kanssa ja olla varovaisia siitä, mitä he pyytävät sen generoimaan.