Koji fail: Umjesto golotinje, program napada i tagira fotke pustinja
Londonska policija vjeruje da će njihova umjetna inteligencija biti glavni borac koji će otkrivati fotografije dječje pornografije i zlostavljanja djece u sljedećih "dvije do tri godine". No kako stvari stoje, program ima žešću grešku. Naime, on ne razlikuje fotografije pustinje od golog tijela.
Program već sada koriste u borbi protiv nepoželjnog sadržaja na zaplijenjenim kompjuterima kako bi otkrili fotografije oružja, droge i novca, ali što se tiče golotinje, program je nepouzdan.
- Iz nekog razloga puno ljudi ima screensavere s pustinjom, a program misli da je to gola koža - rekao je Mark Stokes iz odjela za digitalnu i elektroničku forenziku.
Policija želi program koristiti za obilježavanje i praćenje fotografija zlostavljanja djece kako to ne bi trebali raditi ljudi i na taj način biti izloženi mučnom sadržaju.
No takvi programi daleko su od savršenih. Lani je algoritam na Facebooku obilježio kao pornografsku fotku koja je osvojila nagradu Pulitzer, a prikazuje golu djevojčicu koja tijekom Vijetnamskog rata bježi od napalma (zapaljive bombe). Kasnije su se ispričali i priznali da to nije bila riječ o dječjoj pornografiji.
Bilo kako bilo, na tim programima treba još puno raditi, ali namjera je i više nego dobra.
Jesi li već kupio novi broj omiljenog JoomBoos Videostar magazina? Brzo jer je upravo na kioscima!
MEGA POKLON: Uz novi JoomBoos magazin dobivaš na dar i prvi youtuberski kalendar! Fotkaj se s prvim youtuberskim kalendarom i objavi fotku na Instagramu uz #videostarmagazin. Najkreativniji će osvojiti JoomBoos jastuk ili majicu ISTI SAN!
Klikni reakciju i reci nam što TI misliš! Komentiraj, lajkaj, uživaj ;)