Prvi 81 pregleda 07. veljače 2026.

Ovih 5 informacija nikada ne otkrivajte ChatGPT-u

canva

Važno je zapamtiti da razgovor s umjetnom inteligencijom nije privatan i da sve što upišete ostavlja digitalni trag koji može biti zloupotrijebljen

Umjetna inteligencija postala je tihi partner u našim životima, moćan alat za istraživanje, pisanje i programiranje. Ipak, lažni osjećaj intimnosti u razgovoru s AI chatbotom može nas navesti da podijelimo informacije koje inače nikada ne bismo.

Osobni i financijski podaci

Stručnjaci savjetuju da AI chatbotove tretirate kao javnu dopisnicu; ako neku informaciju ne biste napisali na poleđini razglednice koju svatko može pročitati, nemojte je unositi ni u ChatGPT. To se posebno odnosi na osobne identifikacijske podatke poput punog imena, adrese, OIB-a ili datuma rođenja.

Jednako je rizično unositi lozinke, PIN-ove te brojeve bankovnih ili kreditnih kartica. Iako OpenAI ulaže u sigurnost, povijest je pokazala da su sigurnosni propusti mogući, a vaši podaci mogu postati plijen za kibernetičke kriminalce.

 | Autor: canva canva

Povjerljive poslovne tajne

Jedan od najpoznatijih primjera opasnosti dogodio se kada su zaposlenici Samsunga, pokušavajući optimizirati interni kod, slučajno otkrili strogo čuvane poslovne tajne ChatGPT-u. Budući da se unosi korisnika mogu koristiti za treniranje budućih modela, vaša marketinška strategija, inovativni izvorni kod ili popis klijenata mogu postati dio znanja koje AI sutra može ponuditi vašoj konkurenciji.

Istraživanja pokazuju da čak jedanaest posto podataka unesenih u ChatGPT sadrži povjerljive informacije, što predstavlja ogroman rizik za tvrtke.

 | Autor: canva canva

Osjetljivi medicinski podaci

Iako je primamljivo pitati ChatGPT za brz medicinski savjet, dijeljenje detaljne povijesti bolesti, rezultata nalaza ili opisa simptoma iznimno je opasno. Ovi sustavi nisu usklađeni sa strogim zakonima o privatnosti medicinskih podataka, poput GDPR-a ili HIPAA-e. Osim što vaši najintimniji zdravstveni podaci mogu biti izloženi, AI može dati netočne ili čak po život opasne savjete.

Slično vrijedi i za korištenje chatbota kao "digitalnog terapeuta" jer ti razgovori nemaju zakonsku zaštitu povjerljivosti.

 | Autor: canva canva

Pravni problemi i povjerljivi slučajevi

Slično medicinskim podacima, raspravljanje o pravnim problemima s umjetnom inteligencijom nosi velik rizik. Informacije o sudskim sporovima, povjerljivi podaci o klijentima ili detalji o pravnim strategijama nisu zaštićeni odvjetničkom tajnom kada ih podijelite s chatbotom. Takvi unosi mogu otkriti osjetljive detalje koji bi se mogli iskoristiti protiv vas, a AI nije kvalificiran za davanje pouzdanih pravnih savjeta.

Privatni razgovori i informacije o drugima

Nikada nemojte unositi sadržaj privatnih razgovora, e-mailova ili poruka drugih ljudi. Time ne samo da kršite njihovu privatnost, već i trajno pohranjujete osobne podatke trećih strana na poslužitelje na koje nemate utjecaj. Dijeljenje informacija o prijateljima, obitelji ili kolegama bez njihovog izričitog pristanka etički je upitno i stvara sigurnosni rizik i za vas i za njih.

Tvoja reakcija?