11/07/2019 |

Se l’Intelligenza Artificiale potesse “sentire”, temerebbe attacchi informatici da parte delle persone

Da un nuovo rapporto di un gruppo di ricerca dell'EU emerge che gli attacchi contro i sistemi di intelligenza artificiale sono già in corso, difficili da identificare e potenzialmente molto più comuni di quanto si possa pensare

Milano, 11 luglio 2019 – L’Intelligenza Artificiale (IA) sta rapidamente trovando applicazioni in quasi tutti gli ambiti della vita. Auto a guida autonoma, social media networks, aziende di sicurezza informatica e tutto ciò che ruota intorno all’IA e ne fa uso. Ma un nuovo rapporto pubblicato dal consorzio SHERPA – un progetto dell’EU che studia l’impatto dell’IA sull’etica e sui diritti umani a cui F-Secure ha aderito nel 2018 – rileva che nonostante gli attaccanti umani abbiano accesso alle tecniche di apprendimento automatico, attualmente stanno concentrando la maggior parte dei loro sforzi sulla manipolazione per scopi dannosi dei sistemi di Intelligenza Artificiale esistenti, invece di creare nuovi attacchi che potrebbero utilizzare l’apprendimento automatico.

Il focus primario di questo studio è sul modo in cui gli attori malintenzionati possono abusare dell’intelligenza artificiale, dell’apprendimento automatico e dei sistemi informativi intelligenti. I ricercatori hanno identificato una varietà di usi potenzialmente dannosi per l’intelligenza artificiale che sono alla portata degli attaccanti di oggi, compresa la creazione di sofisticate campagne di disinformazione e ingegneria sociale.

E se da un lato la ricerca non ha trovato prove definitive che gli attori malintenzionati stiano attualmente utilizzando l’intelligenza artificiale per potenziare gli attacchi informatici, dall’altro è emerso che gli avversari stanno già attaccando e manipolando i sistemi di IA esistenti utilizzati dai motori di ricerca, dai social media, dai siti web di recommendation, ecc.

Per Andy Patel, ricercatore del centro di eccellenza per l’intelligenza artificiale di F-Secure, tutto questo potrebbe sembrare per molte persone sorprendente. I ritratti popolari di Intelligenza Artificiale fanno pensare che l’IA si rivolterà contro di noi e inizierà ad attaccare le persone da sola. Ma la realtà attuale è che, al contrario, sono gli umani che stanno attaccando i sistemi di IA su base regolare.

Alcune persone identificano erroneamente l’intelligenza artificiale con l’intelligenza umana, e penso che sia per questo che associano la minaccia dell’IA ai robot killer e ai computer fuori controllo“, spiega Patel. “Ma gli attacchi umani contro l’IA avvengono in continuazione. Attacchi Sybil progettati per contaminare i sistemi di IA che le persone usano ogni giorno, come i sistemi di reputazione online, sono un evento comune. Ci sono persino aziende che vendono servizi per supportare tutto questo. Quindi, per ironia della sorte, i sistemi di IA di oggi hanno più da temere dagli umani che non il contrario.”

Gli attacchi Sybil coinvolgono una singola entità che crea e controlla più account fasulli al fine di manipolare i dati che l’IA utilizza per prendere decisioni. Un esempio popolare di questo attacco è la manipolazione del posizionamento nei motori di ricerca o dei sistemi di reputazione per promuovere o abbassare determinati contenuti. Tuttavia, questi attacchi possono anche essere usati per il social engineering di individui in scenari di attacco mirati.

“Questi tipi di attacchi sono estremamente difficili da rilevare per i provider di servizi online ed è probabile che questo comportamento sia molto più diffuso di quanto chiunque possa pensare”, afferma Patel, che ha condotto ricerche approfondite su attività sospette su Twitter.

Ma forse l’applicazione di IA più utile per gli attaccanti in futuro consisterà nell’aiuto che offrirà a questi malintenzionati per creare contenuti falsi. Il rapporto rileva che l’intelligenza artificiale ha raggiunto il punto in cui può produrre contenuti scritti, audio e visivi estremamente realistici. Alcuni modelli di intelligenza artificiale sono stati persino nascosti al pubblico per impedire che venissero sfruttati dagli attaccanti.

Al momento, la nostra capacità di creare contenuti falsi convincenti è molto più sofisticata e avanzata della nostra capacità di rilevarli. E l’IA ci aiuta a migliorare la produzione di audio, video e immagini, rendendo la disinformazione e il contenuto falso più sofisticati e difficili da rilevare“, afferma Patel. “E ci sono molte diverse applicazioni per contenuti convincenti e falsi, quindi mi aspetto che tutto questo finisca per rappresentare un vero problema.”

Lo studio è stato prodotto da F-Secure e dai suoi partner in SHERPA – un progetto finanziato dall’UE fondato nel 2018 da 11 organizzazioni di 6 paesi diversi. Ulteriori risultati e argomenti trattati nello studio includono:

  • Gli avversari continueranno a imparare come compromettere i sistemi di IA man mano che la tecnologia si diffonde
  • Il numero di modi in cui gli attaccanti possono manipolare l’output di IA rende difficile individuare e combattere tali attacchi
  • I poteri in gioco nella competizione per sviluppare i migliori tipi di intelligenza artificiale per scopi offensivi/difensivi possono finire per scatenare una “corsa agli armamenti di intelligenza artificiale”
  • Cercare di proteggere i sistemi di IA contro gli attacchi può causare problemi etici (ad esempio, un maggiore monitoraggio dell’attività può violare la privacy degli utenti)
  • Gli strumenti e i modelli di intelligenza artificiale sviluppati da attori di minacce avanzati e dotati di risorse adeguate finiranno per proliferare ed essere adottati da avversari meno esperti

Il Professore Coordinatore del Progetto SHERPA Bernd Stahl della De Montfort University Leicester afferma che il ruolo svolto da F-Secure in SHERPA – come unico partner del settore della sicurezza informatica – stia aiutando a spiegare come gli attori malintenzionati possano utilizzare l’intelligenza artificiale per minare la fiducia nella società.

L’obiettivo del nostro progetto è comprendere le conseguenze etiche e sui diritti umani dell’IA e dell’analisi dei big data per aiutare a sviluppare modi per affrontarle. Questo lavoro deve basarsi su una solida conoscenza delle capacità tecniche così come delle vulnerabilità, un’area cruciale di competenza che F-Secure offre al consorzio“, afferma Stahl. “Non possiamo avere conversazioni significative sui diritti umani, sulla privacy o sull’etica nell’IA senza considerare la cyber security. E come fonte affidabile di conoscenza della sicurezza, i contributi di F-Secure sono una parte centrale del progetto. ”

L’intero studio è attualmente disponibile qui. Ulteriori informazioni sull’intelligenza artificiale e sulla cyber security sono disponibili sul blog di F-Secure e sul blog dei Laboratori di ricerca di F-Secure, News from the Labs.

 

F-Secure

Nessuno conosce la cyber security come F-Secure. Per tre decenni, F-Secure ha guidato l’innovazione nella cyber security, difendendo decine di migliaia di aziende e milioni di persone. Con un’esperienza insuperabile nella protezione degli endpoint, così come nella rilevazione e risposta, F-Secure difende aziende e utenti da attacchi informatici avanzati, violazioni di dati e dalle diffuse infezioni ransomware. La sofisticata tecnologia di F-Secure combina la forza del machine learning con l’esperienza umana degli esperti presenti nei suoi rinomati laboratori di sicurezza con un approccio singolare chiamato Live Security. Gli esperti di sicurezza di F-Secure hanno preso parte a più investigazioni sul crimine informatico in Europa di qualsiasi altra azienda sul mercato, e i suoi prodotti sono venduti in tutto il mondo attraverso oltre 200 operatori di banda larga e telefonia mobile e migliaia di rivenditori.

Fondata nel 1988, F-Secure è quotata al NASDAQ OMX Helsinki Ltd.

f-secure.it |f-secure.com| twitter.com/fsecure | facebook.com/f-secure

Seguici anche sul blog italiano: https://blog.f-secure.com/it/

e sull’account Twitter italiano: @F-Secure_IT

 

Contatti per la stampa:

Samanta Fumagalli
Resp. Ufficio Stampa
samanta.fumagalli@gmail.com
info@samantafumagalli.com
Mobile 320.9011759

Gli ultimi comunicati stampa

18/07/2019

Un tool gratuito rivela il vero costo dei servizi online gratuiti: i tuoi dati e la tua identità

Il Data Discovery Portal aiuta a scoprire cosa Facebook, Amazon, Google e altri giganti della tecnologia sanno dei consumatori

11/07/2019

Se l’Intelligenza Artificiale potesse “sentire”, temerebbe attacchi informatici da parte delle persone

Da un nuovo rapporto di un gruppo di ricerca dell’EU emerge che gli attacchi contro i sistemi di intelligenza artificiale sono già in corso, difficili da identificare e potenzialmente molto più comuni di quanto si possa pensare

26/06/2019

La nuova unità di F-Secure si focalizza sulla ‘zona di mezzo’ della difesa tattica

Il capo della nuova unità, Christine Bejerasco, sostiene che l’attenzione del team sul medio termine garantisce che i prodotti e i servizi di F-Secure si evolvano in modo proattivo per rimanere un passo avanti agli attaccanti

10/06/2019

F-Secure vince nella categoria “Best Advanced Persistent Threat Protection” agli SC Awards Europe 2019

F-Secure continua a ricevere premi come fornitore di soluzioni e servizi per la cyber security: ottiene anche il riconoscimento di “altamente raccomandata” nella categoria Best Security Company

%d bloggers like this: