11/07/2019 |

Se l’Intelligenza Artificiale potesse “sentire”, temerebbe attacchi informatici da parte delle persone

Da un nuovo rapporto di un gruppo di ricerca dell'EU emerge che gli attacchi contro i sistemi di intelligenza artificiale sono già in corso, difficili da identificare e potenzialmente molto più comuni di quanto si possa pensare

Milano, 11 luglio 2019 – L’Intelligenza Artificiale (IA) sta rapidamente trovando applicazioni in quasi tutti gli ambiti della vita. Auto a guida autonoma, social media networks, aziende di sicurezza informatica e tutto ciò che ruota intorno all’IA e ne fa uso. Ma un nuovo rapporto pubblicato dal consorzio SHERPA – un progetto dell’EU che studia l’impatto dell’IA sull’etica e sui diritti umani a cui F-Secure ha aderito nel 2018 – rileva che nonostante gli attaccanti umani abbiano accesso alle tecniche di apprendimento automatico, attualmente stanno concentrando la maggior parte dei loro sforzi sulla manipolazione per scopi dannosi dei sistemi di Intelligenza Artificiale esistenti, invece di creare nuovi attacchi che potrebbero utilizzare l’apprendimento automatico.

Il focus primario di questo studio è sul modo in cui gli attori malintenzionati possono abusare dell’intelligenza artificiale, dell’apprendimento automatico e dei sistemi informativi intelligenti. I ricercatori hanno identificato una varietà di usi potenzialmente dannosi per l’intelligenza artificiale che sono alla portata degli attaccanti di oggi, compresa la creazione di sofisticate campagne di disinformazione e ingegneria sociale.

E se da un lato la ricerca non ha trovato prove definitive che gli attori malintenzionati stiano attualmente utilizzando l’intelligenza artificiale per potenziare gli attacchi informatici, dall’altro è emerso che gli avversari stanno già attaccando e manipolando i sistemi di IA esistenti utilizzati dai motori di ricerca, dai social media, dai siti web di recommendation, ecc.

Per Andy Patel, ricercatore del centro di eccellenza per l’intelligenza artificiale di F-Secure, tutto questo potrebbe sembrare per molte persone sorprendente. I ritratti popolari di Intelligenza Artificiale fanno pensare che l’IA si rivolterà contro di noi e inizierà ad attaccare le persone da sola. Ma la realtà attuale è che, al contrario, sono gli umani che stanno attaccando i sistemi di IA su base regolare.

Alcune persone identificano erroneamente l’intelligenza artificiale con l’intelligenza umana, e penso che sia per questo che associano la minaccia dell’IA ai robot killer e ai computer fuori controllo“, spiega Patel. “Ma gli attacchi umani contro l’IA avvengono in continuazione. Attacchi Sybil progettati per contaminare i sistemi di IA che le persone usano ogni giorno, come i sistemi di reputazione online, sono un evento comune. Ci sono persino aziende che vendono servizi per supportare tutto questo. Quindi, per ironia della sorte, i sistemi di IA di oggi hanno più da temere dagli umani che non il contrario.”

Gli attacchi Sybil coinvolgono una singola entità che crea e controlla più account fasulli al fine di manipolare i dati che l’IA utilizza per prendere decisioni. Un esempio popolare di questo attacco è la manipolazione del posizionamento nei motori di ricerca o dei sistemi di reputazione per promuovere o abbassare determinati contenuti. Tuttavia, questi attacchi possono anche essere usati per il social engineering di individui in scenari di attacco mirati.

“Questi tipi di attacchi sono estremamente difficili da rilevare per i provider di servizi online ed è probabile che questo comportamento sia molto più diffuso di quanto chiunque possa pensare”, afferma Patel, che ha condotto ricerche approfondite su attività sospette su Twitter.

Ma forse l’applicazione di IA più utile per gli attaccanti in futuro consisterà nell’aiuto che offrirà a questi malintenzionati per creare contenuti falsi. Il rapporto rileva che l’intelligenza artificiale ha raggiunto il punto in cui può produrre contenuti scritti, audio e visivi estremamente realistici. Alcuni modelli di intelligenza artificiale sono stati persino nascosti al pubblico per impedire che venissero sfruttati dagli attaccanti.

Al momento, la nostra capacità di creare contenuti falsi convincenti è molto più sofisticata e avanzata della nostra capacità di rilevarli. E l’IA ci aiuta a migliorare la produzione di audio, video e immagini, rendendo la disinformazione e il contenuto falso più sofisticati e difficili da rilevare“, afferma Patel. “E ci sono molte diverse applicazioni per contenuti convincenti e falsi, quindi mi aspetto che tutto questo finisca per rappresentare un vero problema.”

Lo studio è stato prodotto da F-Secure e dai suoi partner in SHERPA – un progetto finanziato dall’UE fondato nel 2018 da 11 organizzazioni di 6 paesi diversi. Ulteriori risultati e argomenti trattati nello studio includono:

  • Gli avversari continueranno a imparare come compromettere i sistemi di IA man mano che la tecnologia si diffonde
  • Il numero di modi in cui gli attaccanti possono manipolare l’output di IA rende difficile individuare e combattere tali attacchi
  • I poteri in gioco nella competizione per sviluppare i migliori tipi di intelligenza artificiale per scopi offensivi/difensivi possono finire per scatenare una “corsa agli armamenti di intelligenza artificiale”
  • Cercare di proteggere i sistemi di IA contro gli attacchi può causare problemi etici (ad esempio, un maggiore monitoraggio dell’attività può violare la privacy degli utenti)
  • Gli strumenti e i modelli di intelligenza artificiale sviluppati da attori di minacce avanzati e dotati di risorse adeguate finiranno per proliferare ed essere adottati da avversari meno esperti

Il Professore Coordinatore del Progetto SHERPA Bernd Stahl della De Montfort University Leicester afferma che il ruolo svolto da F-Secure in SHERPA – come unico partner del settore della sicurezza informatica – stia aiutando a spiegare come gli attori malintenzionati possano utilizzare l’intelligenza artificiale per minare la fiducia nella società.

L’obiettivo del nostro progetto è comprendere le conseguenze etiche e sui diritti umani dell’IA e dell’analisi dei big data per aiutare a sviluppare modi per affrontarle. Questo lavoro deve basarsi su una solida conoscenza delle capacità tecniche così come delle vulnerabilità, un’area cruciale di competenza che F-Secure offre al consorzio“, afferma Stahl. “Non possiamo avere conversazioni significative sui diritti umani, sulla privacy o sull’etica nell’IA senza considerare la cyber security. E come fonte affidabile di conoscenza della sicurezza, i contributi di F-Secure sono una parte centrale del progetto. ”

L’intero studio è attualmente disponibile qui. Ulteriori informazioni sull’intelligenza artificiale e sulla cyber security sono disponibili sul blog di F-Secure e sul blog dei Laboratori di ricerca di F-Secure, News from the Labs.

 

F-Secure

Nessuno conosce la cyber security come F-Secure. Per tre decenni, F-Secure ha guidato l’innovazione nella cyber security, difendendo decine di migliaia di aziende e milioni di persone. Con un’esperienza insuperabile nella protezione degli endpoint, così come nella rilevazione e risposta, F-Secure difende aziende e utenti da attacchi informatici avanzati, violazioni di dati e dalle diffuse infezioni ransomware. La sofisticata tecnologia di F-Secure combina la forza del machine learning con l’esperienza umana degli esperti presenti nei suoi rinomati laboratori di sicurezza con un approccio singolare chiamato Live Security. Gli esperti di sicurezza di F-Secure hanno preso parte a più investigazioni sul crimine informatico in Europa di qualsiasi altra azienda sul mercato, e i suoi prodotti sono venduti in tutto il mondo attraverso oltre 200 operatori di banda larga e telefonia mobile e migliaia di rivenditori.

Fondata nel 1988, F-Secure è quotata al NASDAQ OMX Helsinki Ltd.

f-secure.it |f-secure.com| twitter.com/fsecure | facebook.com/f-secure

Seguici anche sul blog italiano: https://blog.f-secure.com/it/

e sull’account Twitter italiano: @F-Secure_IT

 

Contatti per la stampa:

Samanta Fumagalli
Resp. Ufficio Stampa
samanta.fumagalli@gmail.com
info@samantafumagalli.com
Mobile 320.9011759

Gli ultimi comunicati stampa

17/10/2019

La valutazione MITRE ATT&CK conferma capacità leader di settore di F-Secure nel rilevare gli attacchi avanzati

I risultati definiscono le tecnologie EDR di F-Secure come una solida base per la creazione di capacità complete di rilevamento e risposta, andando oltre il framework di MITRE

24/09/2019

F-Secure espande la sua attività di consulenza sulla sicurezza informatica a livello globale

Il team multidisciplinare di F-Secure Consulting protegge le tecnologie e le organizzazioni dalle quali le società dipendono

19/09/2019

Il nuovo Global Partner Program di F-Secure unisce tecnologia, formazione e benefit

Il programma di canale aiuta i reseller IT a portare nuove capacità di cyber security focalizzate sulla rilevazione e risposta a un maggior numero di organizzazioni

12/09/2019

Gli attacchi che sfruttano i dispositivi IoT e Windows SMB sono in crescita nel 2019

L’honeynet globale di F-Secure ha misurato un numero di attacchi dodici volte superiore nel primo semestre del 2019 rispetto al primo semestre del 2018

%d bloggers like this: