Sotsiaalmeedia hiiglane Meta on teatanud edusammudest oma püüdlustes takistada koordineeritud desinformatsioonikampaaniaid, mida toidab genereeriv tehisintellekt, keset kasvavat muret tehnoloogia võimaliku väärkasutuse pärast.

Meta rõhutas oma viimases uuringus „kooskõlastatud ebaautentse käitumise“ kohta oma olemasolevate kaitsemeetmete tõhusust, isegi kui suurenevad kartused, et genereerivat tehisintellekti võidakse kasutada valijate petmiseks eelseisvatel valimistel, eriti Ameerika Ühendriikides.

„Seni oleme näinud, et meie tööstuse olemasolevad kaitsemeetmed, sealhulgas meie keskendumine käitumisele, mitte sisule, vastaste ohtude tõrjumisel, on juba rakendatavad ja tunduvad olevat tõhusad,“ ütles Meta ohu tõrjumise poliitika direktor David Agranovich kolmapäeval toimunud pressibriifingul.

Vaatamata nendele kinnitustele tunnistas Agranovich, et tehisintellektipõhise desinformatsiooni taktika areneb, rõhutades, et „me ei näe, et genereerivat tehisintellekti kasutataks kohutavalt keerukal viisil, kuid me teame, et need võrgustikud arendavad oma taktikat edasi, kui see tehnoloogia muutub.“

Meta platvorme, eriti Facebooki, on juba ammu uuritud nende rolli pärast valimiste desinformatsiooni levitamisel. Nimelt kasutasid Venemaa agendid Facebooki ja muud USA-s asuvat sotsiaalmeediat, et külvata poliitilist ebakõla 2016. aasta USA presidendivalimiste ajal. Euroopa Liit uurib ka Meta Facebooki ja Instagrami väidetava suutmatuse tõttu võidelda desinformatsiooniga enne juunis toimuvaid ELi valimisi.

Eksperdid muretsevad nüüd enneolematu tehisintellekti poolt loodud desinformatsiooni hüppelise kasvu pärast, mida hõlbustavad sellised vahendid nagu ChatGPT ja DALL-E, mis suudavad sisu kiiresti ja nõudmise korral toota. Meta tunnistas, et „ohuallikad“ on kasutanud tehisintellekti võltsitud fotode, videote ja tekstide loomiseks, kuid märkis, et poliitikuid kujutavad realistlikud pildid puuduvad.

Aruanne näitas, et Meta rakendustes on kasutatud tehisintellekti abil loodud profiilipilte võltsitud kontode jaoks. Üks märkimisväärne juhtum hõlmas Hiina võrgustikku, mis kasutas tehisintellekti, et luua plakateid fiktiivse sikhide pooldava aktivistide liikumise nimega Operation K. Lisaks leiti, et Iisraelis asuv võrgustik postitas tehisintellekti abil loodud kommentaare meediaorganisatsioonide ja avaliku elu tegelaste Facebooki lehekülgedele, mille tõelised kasutajad tuvastasid kiiresti propagandana.

Meta omistas selle kampaania Tel Avivis asuvale poliitilisele turundusfirmale. Mike Dvilyanski, Meta ohtude uurimise juht, kirjeldas praegust maastikku kui „põnevat ruumi, mida jälgida“, märkides, et „seni ei ole me näinud, et vastased kasutaksid häirivalt genereerivat tehisintellekti tööriistu“.

Aruandes kirjeldati ka Venemaaga seotud rühmituse „Doppelganger“ käimasolevaid jõupingutusi, et õõnestada toetust Ukrainale. Kuigi need katsed on jätkunud, teatas Meta, et nende neutraliseerimine on õnnestunud, märkides, et Doppelgangeri taktika on jätkuvalt „toores ja suures osas ebaefektiivne autentse publiku loomisel sotsiaalmeedias“.

Lisaks eemaldas Meta Hiinast pärit ebaautentsete Facebooki ja Instagrami kontode klastrid, mis olid suunatud sikhide kogukonnale sellistes riikides nagu Austraalia, Kanada, India ja Pakistan.

Kuna genereeriv tehisintellekti tehnoloogia areneb edasi, on Meta jätkuvalt valvas oma strateegiate kohandamisel, et võidelda uute ohtude vastu, eesmärgiga säilitada oma platvormide terviklikkust, pidades silmas arenevaid desinformatsioonitaktikaid.
Lisateave: https://techxplore.com/news/2024-05-meta-generative-ai-deception-held.html