Ove podatke nikada ne smijete dijeliti s AI asistentima
Od intimnih informacija, preko osobnih informacija i lozinki, ovo su stvari koje, ako koristite ChatGPT i ostale alate, definitivno trebate zadržati za sebe.
AI chatbotovi poput ChatGPT-a i Googleovog Geminija fasciniraju svojom sposobnošću generiranja odgovora sličnih ljudskima, ali njihova uporaba velikih jezičnih modela (LLM-ova) donosi ozbiljne rizike za privatnost i sigurnost. Iako su korisni u mnogim aspektima, važno je razumjeti kako dijeljenje određenih vrsta informacija s chatbotovima može rezultirati neželjenim posljedicama.
Zašto su AI chatbotovi rizični?
Prvi problem je prikupljanje podataka. AI chatbotovi koriste ogromne količine podataka za obuku, uključujući korisničke interakcije. Iako neke tvrtke poput OpenAI-a nude opciju isključivanja iz prikupljanja podataka, potpuno osiguravanje privatnosti ostaje izazov.
Drugi problem je ranljivost servera. Pohranjeni podaci mogu postati meta hakera, što bi moglo dovesti do zloupotrebe osjetljivih informacija.
Treći problem su pristup trećim stranama. Podaci iz interakcija mogu biti podijeljeni s pružateljima usluga ili dostupni autoriziranim zaposlenicima, povećavajući rizik od curenja podataka.
Konačno, tu su potencijali problemi sa sigurnošću i povredom privatnosti vezanima uz AI sustave. Da biste zaštitili svoje podatke dok koristite AI chatbotove, ključno je razumjeti koje informacije ne biste trebali dijeliti.
Financijski podaci, ali i misli
Prva stvar o kojoj moramo voditi računa su financijski podaci. Dijeljenje stvari poput brojeva računa ili povijesti transakcija, može vas izložiti riziku od krađe identiteta ili financijskih prijevara. AI chatbotovi nisu zamjena za licencirane financijske savjetnike, pa se ograničite na opće informacije prilikom traženja financijskih savjeta.
Drugi problem je dijeljenje osobnih misli i intimnih podataka. Mnogi korisnici koriste chatbotove kao oblik terapije, no to može dovesti do kompromitacije privatnosti jer vaši podaci mogu postati dio AI obuke ili biti zloupotrijebljeni. Za mentalno zdravlje uvijek je bolje obratiti se kvalificiranom stručnjaku.
Treća stvar koju je bolje ne dijeliti su povjerljive informacije s radnog mjesta. Dijeljenje povjerljivih podataka s posla može dovesti do ozbiljnih posljedica, kao što je bio slučaj sa Samsungovim zaposlenicima koji su nenamjerno otkrili osjetljive kodove putem AI platforme. Radni podaci trebaju ostati zaštićeni unutar sigurnih okvira tvrtke.
Nismo sigurni zašto ovo uopće spominjemo, no chatbotovima nikad ne biste trebali davati lozinke. Unatoč poboljšanjima u sigurnosnim mjerama, rizik od povreda privatnosti i dalje je prisutan.
Posljednja stvar koju obavezno trebate zadržati za sebe su osobni identifikacijski podaci poput adrese, datuma rođenja, brojeva osiguranja ili zdravstvenih informacija mogu biti zloupotrijebljeni za krađu identiteta. Čak i naizgled bezazleni detalji mogu vas izložiti rizicima ako ih slučajno podijelite s chatbotom.
Kako zaštititi svoju privatnost?
Da biste osigurali sigurnost sebe i vaših podataka, prije svega se morate upoznati s pravilima privatnosti AI platformi koje koristite. Premda situacija varira od platforme do platforme, općeniti savjet definitivno je izbjegavanje dijeljenja osobnih i povjerljivih informacija.
Budite svjesni ranjivosti podataka pri korištenju chatbotova na društvenim mrežama ili integriranim aplikacijama. Također, premda su generativni AI korisni, oni zahtijevaju odgovorno korištenje. Prije nego što podijelite informacije, razmislite o posljedicama mogućeg curenja podataka. Na taj ćete način zaštititi svoju privatnost i sigurnost, prenosi N1.