Artificiell intelligens har redan nått Whatsapp-bedrägerier och VD:s bedrägeriprogram som utreds av PJ – Internet

Från flera länder har det kommit rapporter om bedrägeriförsöknågra framgångsrika, som dra fördel av artificiell intelligens-program för att imitera en bekant röst eller bild och lura någon, ofta för att få en ekonomisk fördel. Kan vara föräldrar som får ett röstmeddelande från ett barn ber om pengar, eller skriker i trubbel eftersom han förmodligen var ett offer för kidnappning och en lösensumma måste betalas. Kan vara en professionell kontakt för ett distansmötedär en anställd får rekommendationer från den förmodade chefen att överföra pengar till konton som visar sig vara bedragares. Det hände nyligen till exempel i ett Hong Kong-företag och genererade förluster på 26 miljoner dollar.

System av denna typ når även familjer och företag i Portugal och det finns flera fall som utreds av rättspolisen. “Vid modus operandi känd som CEO Fraud det finns en användning av artificiell intelligensverktyg för att instruera företag att överföra pengar till tredje parts konton. Vi har redan upptäckt några av dessa situationer som för närvarande är under utredning”, avslöjade för SAPO TeK:s chefsinspektör Carla Costa, i koordinerande roll vid UNC3T (National Unit to Combat Cybercrime and Technological Crime) av rättspolisen.

I kända “hej pappa, hej mamma”-bedrägerier Fall har också dykt upp med nya element för att locka föräldrars uppmärksamhet, inklusive röstdeepfakes och andra ingredienser som personifierar kommunikationen för att ge den mer trovärdighet. Du bedragare ”kan redan utfärda [nas mensagens] sonens eller dotterns nummer vem de försöker låtsas vara. De använder ofta fotografier av familjemedlemmen och i vissa situationer förekommer imitationer av barnets egen röst. eller dottern som ber sin far om pengarna.” Denna imitation görs med hjälp av artificiell intelligensprogram och så kallade deepfake-teknologier.

Dessa nya element ger realism i meddelanden som normalt skickas via WhatsApp för föräldrar som ber dem att göra en akut kontantöverföring för att betala en kostnad. Tidigare härrörde dessa kommunikationer från okända nummer, vilket tvingade den förmodade sonen att förklara att han använde ett konstigt nummer för att hans mobiltelefon hade gått sönder eller gått vilse. Får det simulera familjemedlemmens telefonnummer, ett riktigt profilfoto och till och med röst Du behöver bara övertyga samtalspartnern om orsaken till den plötsliga begäran.

“I dessa system där riktiga bilder av barn används, har vissa bedrägeriförsök redan rapporterats som slutade med att vara framgångsrika och ledde till att föräldrar överförde belopp, eftersom de slutar med att de inte validerar om kontakten är äkta”, medger överinspektör Carla Costa.

PJ:s bekämpningsenhet för cyberbrott har också upptäckt några situationer där artificiell intelligens används för att imitera röster från offentliga personer som annonserar onlinespel eller viktminskningsprodukter. I dessa falska annonser används bilden av den offentliga personen, men i vissa fall används också rösten, manipulerad genom AI för att förmedla det önskade budskapet.

Hämndporr och kul är de främsta anledningarna till att sprida nakna med manipulerade bilder på internet

Cbildmanipuleringsfall där AI-program används för att klä av någon som på originalbilden har kläder och skapar innehåll som sedan publiceras på sociala nätverk, har också ökat. Som SAPO TeK också redan hade fått reda på från Safe Internet Line, Många av dessa fall sker i skolmiljöer, där dessa deepfakes skapas som ett “skämt” och distribueras bland kollegor genom WhatsApp-grupper. “Detta har en mycket negativ inverkan på dessa ungdomars liv och som ett resultat låga skolprestationer, vägran att gå i skolan och ofta till och med självmordstendenser”, varnar den ansvarige.

I andra fall manipulation av bilder för att skapa så kallade nakenbilder uppstår i fall av porr hämnd. De följer slutet på ett romantiskt förhållande, som inte accepteras väl av angriparen och på grund av detta slutar han med att dela bilder av offret. I dessa fall, så många bilder släpps som delades med samförstånd under förhållandet, som manipulerade bilder. “Angriparen använder artificiell intelligens för att modifiera kroppen eller ta bort kläder från ett legitimt foto och resultatet sprids av offrets kontakter, arbetskamrater eller andra familjemedlemmar, vilket skapar en mycket negativ inverkan på personens liv.”

A bildmanipulation för att skapa sexuellt innehåll med barn Det börjar också bli en trend. I Portugal upptäcktes inga sådana här situationer.“men det är något som vi vet att vi kommer att behöva möta och som innebär utmaningar, särskilt när det gäller att identifiera offer, eftersom det gör det svårare att förstå om ett givet fotografi motsvarar ett verkligt offer eller inte”, medger Carla Costa.

En gång på internet, för alltid på internet…

Den tillgängliga informationen tillåter oss inte att fastställa ett orsak-och-verkan-samband mellan tillgången på en uppsättning nya verktyg som underlättar denna manipulering av foton, röst eller video, för de mest olika ändamålen. Utvecklingen av användningen av dessa resurser har varit progressiv, men vad som är säkert är att “kreativiteten har ökat och artificiell intelligens har bidragit till denna ökning och för denna förändring i modi operandi”.

En studie som släpptes i slutet av förra året (av Onfido) visade det År 2023 hade deepfake-bedrägerierna ökat med 3000 % och mer än 90 % av dessa system använde enkla verktyg, med resultat av dålig kvalitet. Vid en första anblick kan detta leda till antagandet att det är relativt lätt för alla potentiella offer att inse att de blir lurade, men i praktiken är så inte fallet.

“Det är sant att det i vissa fall, med en närmare titt på den modifierade bilden, fortfarande är möjligt att identifiera vissa brister, men det potentiella offret är inte alltid medvetet om dessa detaljer.” I praktiken slutar perfektionen av deepfake inte vara ett grundläggande element för dess trovärdighet.

Också det finns inga idiotsäkra recept för att undvika att bli föremål för den här typen av system och förhindra att din bild eller röst manipuleras, antingen som ett offer eller som lockbete för ett bedrägeriprogram. Men det finns försiktighetsåtgärder värda att vidta och som främst går ut på att kontrollera exponeringen av den digitala bilden så mycket som möjligt.

Begränsa mängden tillgänglig information om dig själv på internetnämligen kvalitetsvideoinnehåll, som sedan kan användas för att skapa dessa deepfakes”, är en av dessa viktiga försiktighetsåtgärder. Begränsa åtkomst till profilerbara acceptera relationer med människor du känner, behåll funktionaliteten som förhindrar tillägg till okända grupper aktiva på WhatsAppeller använd verktyg som tillåter sätta en vattenstämpel på bilder och att göra det svårt att ändra dessa bilder är också god praxis.

Deepfakes behöver inte vara perfekta för bedrägerier som använder dem för att bli framgångsrika

Det är sant det Det finns redan flera verktyg för att “skanna internet” för att leta efter stötande innehåll och eliminera deteller för att förhindra att de publiceras om de redan är refererade, men är långt ifrån 100 % effektiva. Som chefsinspektör Carla Costa minns, för att belysa svårigheten att helt utrota innehåll som publiceras online, Tyvärr gäller fortfarande det gamla talesättet: “en gång på internet, alltid på internet”.

Att begränsa potentialen för bilder, röster och videor manipulerade med artificiell intelligens för mindre legitima ändamål är inte heller en lätt uppgift, med tanke på enkel tillgång till dessa verktyg och den kvalitet som förmodligen kommer att fortsätta att vinna med tiden, allt eftersom tekniken blir mer mogen. En del av svaret måste åtminstone också involvera teknik och industrin arbetar på det och utvecklas verktyg som hjälper till att särskilja verkliga och falska bilder och försöker skydda så mycket som möjligt kritiska system för att hantera ett liv som blir allt mer digitalt.

En lösning som ses som lovande på detta område är tillämpning av digitala signaturer i multimediainnehåll. Det är ett av de områden där industrin arbetar för att svara på bilder och röster tillverkade med ökande precision av AI, och “kan tillhandahålla en effektiv metod för att verifiera äktheten och integriteten hos videor och bildererbjuder ett värdefullt verktyg för att upptäcka och förebygga övergrepp relaterat till deepfakes”, som förklarats Rui Shantilalverkställande partner till Devoteam Cyber ​​​​Trust.

En annan fråga som kan uppstå med uppkomsten av deepfakes har att göra med förmågan hos dessa “bild- och röstspoofing”-tekniker att lura fjärridentifieringssystem och de tjänster som använder dem. Den här experten förklarar dock att dessa teknologier också i allt högre grad designas för att motstå utmaningarna med deepfakes, “särskilt de som använder avancerade biometriska metoder”.

De har införlivat skydd som går utöver enkel ansiktsigenkänning eller röstigenkänning och de analyserar ofta redan en kombination av fysiska och beteendemässiga egenskaper, vilket gör dem mer motståndskraftiga mot deepfakes. De kan utvärdera ögonrörelsemönster, hudstruktur i mikroskopiska detaljer eller hur en person pratar eller rör sigdetaljer som en deepfake knappast kan replikera.

Dessutom, Många av dessa fjärridentifieringssystem drar också fördel av artificiell intelligensalgoritmer som kan upptäcka anomalier och inkonsekvenser som är vanliga i deepfakes. “Det här är system tränade för att identifiera tecken på manipulation, såsom oregelbundna kanter, atypiska blinkmönster eller inkonsekvenser i ljud- och videosynkronisering”, förklarar den ansvarige för devoteam.

I framtiden kommer dessa att bli allt mer nödvändiga lösningar för att skilja mellan äkta och tillverkade, men ensamma kommer de fortfarande att vara otillräckliga för att garantera säker digital identifiering. Vägen kommer att fortsätta mot multifaktorkombinationer. Förutom biometrisk verifiering tenderar koder som skickas till användarens enhet, säkerhetsfrågor eller andra att komma in i dessa ekvationer.

Den här artikeln är en del av en Special som SAPO TEK publicerar under denna vecka om den “mindre vackra” sidan av artificiell intelligens.

Leave a Reply

Your email address will not be published. Required fields are marked *