![Kun yhä useammat yritykset ottavat käyttöön tekoälyominaisuuksia liiketoiminnassaan, työntekijät ovat yhä huolissaan tekoälyn uhasta työpaikkojensa korvaajana. Fortune-lehti raportoi tiistaina, että eräs Adoben johtaja ei kuitenkaan ole aivan vakuuttunut tästä uhasta, vertaillen tekoälyn kehitystä kameran keksimiseen.](https://i0.wp.com/errori.net/wp-content/uploads/2023/10/Tekoaly-Errori.jpg?fit=1024%2C683&ssl=1)
ChatGPT OpenAI:n kehittämä suuri kielimalli, vuotaa käyttäjiensä yksityisiä keskusteluja, väittää eräs Ars Technica -lukija.
Nimettömänä pysyvä lukija väittää saaneensa keskusteluja muilta käyttäjiltä, mukaan lukien kirjautumistunnukset, julkaisemattomat tutkielmat ja PHP-skriptit.
Lukija kertoo huomanneensa vuotaneet keskustelut maanantaiaamuna käytettyään ChatGPT:tä epäsuoraan kysymykseen. Keskustelut näkyivät heidän chat-historiassaan, vaikka he eivät olleet aloittaneet niitä. Lukija väittää myös, että keskustelut olivat eri vuosilta, mikä viittaa siihen, että vuoto on jatkunut jo jonkin aikaa.
![](https://i0.wp.com/errori.net/wp-content/uploads/2024/01/Ars-tecnica-2.png?resize=1876%2C1744&ssl=1)
OpenAI ei ole vielä kommentoinut syytöksiä.
Viimeisin vuoto herättää huolta ChatGPT:n käyttäjien yksityisyydestä. Jos Tekoäly-chatbot pystyy vuotamaan yksityisiä keskusteluja, on mahdollista, että se voisi myös altistaa muita herkkiä tietoja, kuten taloudellisia tietoja tai henkilötunnuksia.
ChatGPT:n käyttäjien tulisi olla tietoisia mahdollisuudesta, että yksityiset keskustelut voivat vuotaa. Heidän tulisi välttää jakamasta mitään herkkää tietoa tekoäly-chatbotin kanssa ja olla varovaisia siitä, mitä he pyytävät sen generoimaan.