Small nick 01

Jérôme BENBIHI

Une étude le démontre : l’attaque non virale est plus risquée que les attaques malicieuses

 

La dernière enquête menée par Carbon Black, leader dans la conception d’antivirus de nouvelle génération pour les terminaux, signale que les attaques non malveillantes (non-malware) représentent un risque plus important pour les entreprises que les attaques malveillantes traditionnelles (malware).

Les experts en cyber-sécurité considèrent que la situation est inquiétante car les attaques de logiciels non-malwares sont en très forte hausse depuis un an. Ces attaques 'sans fichier' recherchent des solutions alternatives pour pénétrer dans le système informatique des entreprises en se dissimulant dans d'importants processus tels PowerShell ou en ciblant la mémoire de travail. Ce faisant, les non-malwares sont généralement indétectables par les logiciels de sécurité plus traditionnels.

9small

Chaque jour les attaques deviennent de plus en plus sophistiquées et la cyber criminalité progresse. En même temps, la recherche d’une autre méthode d’attaque témoigne de l’avancée des programmes de sécurité existants. Mais "les attaques croissent plus rapidement que le recrutement de spécialistes capables de les contrer", explique Rick McElroy, security strategist chez Carbon Black. D’après lui, l’apprentissage machine (AM) et l’intelligence artificielle (IA) sont les meilleurs moyens de contrôler la cybercriminalité, mais les techniciens ne sont qu’à l’aube de ces technologies : « … il y a aussi l'intelligence artificielle et l'apprentissage machine, qui permettent à de plus petites équipes d'évoluer et de surveiller plus efficacement. Mais je n'y baserais pas toutes mes décisions. Nous en sommes en effet encore à un stade précoce de ces techniques. Elles en sont encore à leurs balbutiements. »

La plupart des experts ayant participé à l’étude de Carbon Black, partage le même avis. Ils considèrent que l’IA, (en anglais AI, artificial intelligence) n’en est qu’à ses débuts et qu’elle n’est pas encore en mesure de remplacer la prise de décision humaine en matière de cybersécurité. Pour preuve, 87% des chercheurs estiment qu’il faudra encore plus de trois ans avant de faire confiance à l’AI pour prendre des décisions en matière de sécurité informatique. De même, les trois quarts (74%) des chercheurs affirment que les solutions de cybersécurité pilotées par l’AI sont toujours imparfaites.

« En nous basant sur la manière dont les experts en cybersécurité perçoivent les solutions de sécurité actuelles, notamment celles pilotées par l’IA, il ressort nettement qu’ils considèrent la cybersécurité comme une bataille entre humains, et ce malgré un niveau d’automatisation accru tant du côté offensif que défensif », estime Michael Viscuso, Co-founder et Chief Technology Officer, Carbon Black. Les failles du Machine Learning dépendent grandement du niveau plus ou moins élevé d’apprentissage que les organisations mettent en place, et la manière dont elles l’utilisent. Les approches statiques fondées exclusivement sur l’analyse de fichiers ont été historiquement les plus populaires, mais elles s’avèrent insuffisantes pour détecter les nouveaux types d’attaques. Les approches ML les plus efficaces impliquent une analyse dynamique qui comprend l’évaluation des programmes en fonction des actions qu’ils entreprennent.

Rappelons ici que l’année dernière les équipes du MIT et PatternEx ont présenté une plateforme de détection des attaques reposant sur un modèle d’apprentissage machine supervisé, associant donc des analystes, et affichant un niveau d’efficacité redoutable, AI2. La machine a été utilisé non pas pour prendre une décision, mais pour faire un tri, isoler l'information pertinente et présenter l'information à l'humain dans un format qui lui permette de "laisser faire" ce que le cerveau humain fait de mieux, c'est à dire "trouver ce qui est louche" (l'intuition). La machine fait quant à elle de son côté ce qu'elle sait faire de mieux : brasser une grande quantité de données et trier.

Dans son analyse des résultats de son sondage, Carbon Black aboutit aux mêmes conclusions : « les technologies de sécurité devraient être basées sur la collecte Big Data, utiliser l’automatisation lorsque c’est efficace, et surtout, donner les moyens aux humains de prendre de meilleures décisions ». De quoi entraîner en retour les algorithmes pour les rendre plus pertinents.

Cette analyse de Carbon Black, menée en décembre 2016 et janvier 2017, a concerné 410 professionnels de la sécurité informatique : des ingénieurs, chercheurs, éditeurs libres de programmes de sécurité, etc.

Certaines des informations ont fait l’objet d’une publication officielle par Data News.

Leave a comment

Make sure you enter all the required information, indicated by an asterisk (*). HTML code is not allowed.