Koji fail: Umjesto golotinje, program napada i tagira fotke pustinja

Ono kad ni umjetna inteligencija nije baš prepametna...
Vidi originalni članak

Londonska policija vjeruje da će njihova umjetna inteligencija biti glavni borac koji će otkrivati fotografije dječje pornografije i zlostavljanja djece u sljedećih "dvije do tri godine". No kako stvari stoje, program ima žešću grešku. Naime, on ne razlikuje fotografije pustinje od golog tijela.

Program već sada koriste u borbi protiv nepoželjnog sadržaja na zaplijenjenim kompjuterima kako bi otkrili fotografije oružja, droge i novca, ali što se tiče golotinje, program je nepouzdan.

via GIPHY

- Iz nekog razloga puno ljudi ima screensavere s pustinjom, a program misli da je to gola koža - rekao je Mark Stokes iz odjela za digitalnu i elektroničku forenziku.

Policija želi program koristiti za obilježavanje i praćenje fotografija zlostavljanja djece kako to ne bi trebali raditi ljudi i na taj način biti izloženi mučnom sadržaju.

No takvi programi daleko su od savršenih. Lani je algoritam na Facebooku obilježio kao pornografsku fotku koja je osvojila nagradu Pulitzer, a prikazuje golu djevojčicu koja tijekom Vijetnamskog rata bježi od napalma (zapaljive bombe). Kasnije su se ispričali i priznali da to nije bila riječ o dječjoj pornografiji.

Bilo kako bilo, na tim programima treba još puno raditi, ali namjera je i više nego dobra.

Jesi li već kupio novi broj omiljenog JoomBoos Videostar magazina? Brzo jer je upravo na kioscima! 

MEGA POKLON:  Uz novi JoomBoos magazin dobivaš  na dar i prvi youtuberski kalendar! Fotkaj se s prvim youtuberskim kalendarom i objavi fotku na Instagramu uz #videostarmagazin. Najkreativniji će osvojiti JoomBoos jastuk ili majicu ISTI SAN!


 

Klikni reakciju i reci nam što TI misliš! Komentiraj, lajkaj, uživaj ;)
 

Posjeti joomboos.24sata.hr