top of page
Charles-Étienne Ostiguy

Sécurité compromise


En 2018, pas une semaine ne passe sans qu’un proche, un collègue, un ami ou un présentateur de nouvelles n’aborde le sujet de l’intelligence artificielle. Ce vaste ensemble de technologies aux utilités diverses est devenu un véritable buzzword de la fin de notre décennie, étant parfois rattaché à des scénarios apocalyptiques comme à des discours politiques visant à attirer les investissements dans le domaine. « C’est la technologie du futur », nous dit-on, pour le meilleur et pour le pire.


Or, certains spécialistes dans le domaine semblent dépeindre un portrait nettement plus nuancé, évitant la polarisation à laquelle nous habitue constamment les médias. En effet, des chercheurs de par le monde ont publié un rapport, cosigné par la prestigieuse (ou pas assez pour Monique Jérôme-Forget) université Oxford [1] concernant les risques liés à la sécurité publique découlant du développement des IA. Trois principaux secteurs d’activités y sont largement analysés : les sécurités informatique, physique et politique.


______________________________________________________________________________________________________


Parlons de cette première facette, la sécurité informatique. Selon le rapport, les modes d’attaques informatiques, leur efficacité et leur quantité augmenteront considérablement dans les prochaines années. Dans bien des cas, ces attaques mèneront à des batailles insoupçonnées dans lesquelles des IA offensives et des IA défensives tenteraient de protéger des données sensibles d’entités privées des mains de dangereux criminels, le tout à l’abri des regards des autorités réglementaires.

______________________________________________________________________________________________________


La principale conséquence pour le citoyen moyen? Eh bien, une IA en mesure de jumeler une masse de données personnelles arrachées à des bases de données peu sécurisées (un exemple : La plateforme Alexa d’Amazon [2] qui demeure d’une accessibilité horrifiante pour les hackers) et des données entourant la psychologie béhaviorale serait en mesure de cibler du contenu d’hameçonnage pour frauder des millions d’utilisateurs sans même qu’ils reconnaissent l’hameçonnage. En d’autres termes, vos boîtes de courriels pourraient être remplies de pourriels précisément conçus pour vous faire croire qu’ils sont véridiques. Par la fenêtre les « votre compte Netflix a été hacké », accueillons maintenant des courriels se camouflant parmi votre flux quotidien de données.


Ce n’est pas tout. En matière de sécurité physique, l’IA aura un impact considérable sur l’organisation de la sécurité de nos sociétés. L’utilisation de drones pour perpétrer des actes terroristes ou des assassinats automatisés sera chose commune. Pensons au président vénézuélien Nicola Maduro [3] qui a récemment accusé le gouvernement colombien d’avoir tenté de l’assassiner de la sorte.


Si un drone est programmé pour lui-même reconnaître sa cible, retrouver un responsable de l’assassinat relèvera du miracle. À quoi bon brûler le fil d’Ariane s’il n’a jamais vu le jour?


Contrer des attaques physiques orchestrées par des drones (mis à part les Roomba équipés de couteaux) aurait des coûts astronomiques pour les services policiers. Malgré l’utilisation de drones policiers munis de filets utilisés au Japon [4], les initiatives des forces de l’ordre et des autres instances de la société se font rares.


Toutefois, les chercheurs semblent prévoir le pire en matière de sécurité politique et informationnelle. Pour eux, des campagnes de propagande automatisées seront choses communes. L’élection présidentielle américaine de 2016 aurait d’ailleurs été fortement influencée par des usines de bots propagandistes, entre autres provenant de Macédoine (et, spéculativement, de Russie [5]). Ces campagnes rudimentaires se sont avérées efficaces, mais ce n’est que la pointe de l’iceberg.


Alors que le monde se penche sur la diffusion et la légitimité de contenu médiatique « alternatif », des développeurs ont déjà un pas d’avance. Déjà, des IA et processeurs (mention spéciale à la compagnie Nvidia [6]) sont en mesure de créer des photos hyperréalistes montrant des scènes qui ne se sont jamais produites, de quoi nourrir la bête des fausses nouvelles. Pire encore, certains youtubeurs ont été en mesure de faire coïncider n’importe quel extrait de Barack Obama avec n’importe quel clip audio prononcé par l’ex-président américain. Des start-ups peuvent même cloner votre voix pour lui faire dire n’importe quoi [7]! Soudainement, lorsque Donald Trump prétend ne jamais avoir prononcé le fameux « Grab em’ by the p**** » [8], on ne diverge pas tant que cela de la réalité. Ma parole contre la tienne, et les faits nous supportent tous deux.


Ces faux contenus audio-visuels pourraient, éventuellement, mener à des situations assez malencontreuses. Imaginez retrouver votre visage plaqué à une vidéo pornographique lors de laquelle on peut reconnaître votre voix. Ce n’est pas de la science-fiction, on en parlait pas plus tard qu’en décembre dernier [9]. Mais les images générées par ordinateur ne s’arrêtent pas là. Imaginez un Donald Trump furieux lançant « I declare war on North Korea! ». Le monde politique entier prendrait-il un pas de recul avant d’appuyer sur le déclencheur?


______________________________________________________________________________________________________


Pour le citoyen ordinaire, comment distinguer le vrai du faux? Comment avoir confiance en quoi que ce soit lorsque, déjà englouti par une vague déferlante d’informations, devrait en plus obtenir un diplôme post-secondaire en détection de contrefaçons pour demeurer à l’affut?

______________________________________________________________________________________________________


Malheureusement, ces technologies arrivent trop vite. Leur développement se fait, certes, sous l’œil de chercheurs respectés et méticuleux, comme le porte-étendard de l’industrie montréalaise de l’intelligence artificielle, Yoshua Bengio, mais toute la recherche entourant ce développement est actuellement diffusée ouvertement sur le web, ouvrant la porte à une pléthore d’individus mal intentionnés pour qu’ils agissent comme bon leur semble. De son côté, le législateur demeure assez froid, ayant plusieurs dossiers chauds sur les bras lui empêchant de convenablement se pencher sur le sujet.


Pour le moment, une des rares avenues à emprunter pour éviter une hécatombe en matière de sécurité politique, physique et informatique dans la prochaine décennie est la sensibilisation. Cependant, à l’ère de la polarisation des flux d’information publique, la sensibilisation ne pourra pas se faire en pas de géants, à moins que ceux du web n’agissent. Encore faut-il que le législateur les en incite. Douce ironie.


______________________________________________________________________________________________________

[1] : https://arxiv.org/ftp/arxiv/papers/1802/1802.07228.pdf

[2] : https://ici.radio-canada.ca/nouvelle/1116523/venezuela-nicolas-maduro-attaque-tentative-discours-drones-explosion

[3] : https://blog.malwarebytes.com/cybercrime/2018/05/security-vulnerabilities-smart-assistants/

[4] : https://www.telegraph.co.uk/technology/2016/01/21/tokyo-police-are-using-drones-with-nets-to-catch-other-drones/

[5] : https://www.wired.com/2017/02/veles-macedonia-fake-news/

[6] : https://www.buzzfeednews.com/article/charliewarzel/the-terrifying-future-of-fake-news

[7] : https://www.theverge.com/2017/4/24/15406882/ai-voice-synthesis-copy-human-speech-lyrebird

[8] : https://globalnews.ca/news/3882677/donald-trump-access-hollywood-tape/

[9] : https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn


19 vues0 commentaire

Posts récents

Voir tout

Dissident-e

Depuis la mise en place de l’Association des Étudiants en Droit de l’Université de Montréal (communément appelée AED) en 1894, il n’y a...

bottom of page