Medan uttrycket "Four Horsemen of the Infocalypse" länge har använts på internet för att hänvisa till brottslingar som narkotikahandlare, penningtvättare, pedofiler och terrorister, fördes termen "Infocalypse" till mainstream relativt nyligen av MIT grad Aviv Ovadya, som för närvarande arbetar som chefsteknolog vid Center for Social Media Responsibility (UMSI). 2016, på höjden av falska nyhetskrisen, hade Ovadya uttryckt oro för teknologer i Silicon Valley om spridningen av felinformation och propaganda förklädd till verkliga nyheter i en presentation med titeln 'Infocalypse'.
Enligt hans presentation tjänar internetplattformar som Google, Facebook och Twitter sina intäkter allt mot givande klick, aktier och tittare snarare än att prioritera kvaliteten på informationen. Det, hävdade han, skulle bli ett verkligt problem förr snarare än senare, med tanke på hur lätt det har blivit att posta vad någon känner utan filter. Eftersom stora internetföretag till stor del ignorerade hans oro, beskrev Ovadya situationen som “Bilvård utan kontroll” som alla bara ignorerade.
Medan hans förutsägelser nu har visat sig vara skrämmande korrekta, finns det mer dåliga nyheter för dem som är oroliga över suddningen av gränserna mellan sanningen och den politiskt motiverade propaganda. Enligt honom kommer AI att användas i stor utsträckning under de kommande decennierna för felinformationskampanjer och propaganda. För att stoppa den dystopiska framtiden arbetar Ovadya tillsammans med en grupp forskare och akademiker för att se vad som kan göras för att förhindra en informationsapokalyps.
En sådan aspekt är deepfakes eller AI-genererade videor av kändisar som förvandlas till andra videor, till stor del porr. Reddit förbjöd nyligen minst två sådana underredditer som kallades 'r / deepfakes' och 'r / deepfakesNSFW' som redan hade tusentals medlemmar och distribuerade falska pornografiska videor av olika kändisar, som Taylor Swift, Meghan Markle och liknande. Andra plattformar, som Discord, Gyfcat, Pornhub och Twitter, har under tiden också förbjudit ansiktsbytande porr utan samtycke på sina plattformar.
Utöver kränkning av individuell integritet säger Ovadya att sådana videor kan ha en destabiliserande effekt på världen om de används för politiska vinster. De kan ”skapa tron att en händelse har inträffat” för att påverka geopolitiken och ekonomin. Allt du behöver är att mata AI med så mycket bilder av en målpolitiker som möjligt, och få dem att förvandlas till en annan video med potentiellt skadliga saker.
Det enda hoppet är dock att människor äntligen medger att de hade fel när de stängde ut hotet från falska nyheter för två år sedan. Enligt Ovadya, ”I början var det riktigt dyster - få lyssnade. Men de senaste månaderna har varit riktigt lovande. Några av kontrollerna börjar falla på plats ”. Även om det verkligen är positivt att teknologer vill ta itu med ett problem som förväntas bli värre de närmaste åren, kommer det att vara intressant att se hur väl de kommer att vara förberedda för den kommande informationskrigningen när vi äntligen presenteras för det värsta fallet , givet att, ”Många varningsskyltar har redan hänt”, enligt Ovadya.