Au Royaume-Uni, une IA va bloquer la propagande terroriste

COMPARER - Au Royaume-Uni, une start-up spécialisée dans l'intelligence artificielle et l'analyse de données a mis en place un nouveau système de surveillance avec le gouvernement pour bloquer les contenus à caractère terroriste. <> La France a-t-elle intérêt à s'inspirer de ce modèle ?

L’intelligence artificielle viendra-t-elle à bout de la propagande terroriste ? C’est ce qu’assure une start-up britannique qui a mis au point, avec le gouvernement de Grande-Bretagne, un logiciel de détection et de blocage des contenus sur Internet émanant de l’organisation islamique (Daesh).

Grâce à des algorithmes de précision (à 99,99% selon la société), le logiciel d’ASI Data Science permet ainsi de détecter 94% des contenus vidéos postés en ligne par l’Etat ennemi des pays occidentaux. La solution cible en particulier «les loups solitaires (…) qui ne remontent pas dans les recherches plus conventionnelles des agences de surveillance», comme elle l’explique dans une vidéo. Contrairement à ce qui a déjà pu être expérimenté auparavant, le logiciel de détection se concentre sur les plateformes secondaires de vidéos telles Vimeo, Telegra.ph et pCloud, et non sur les hubs des géants Facebook, YouTube ou Twitter, note le Financial Times. Ces derniers publient d’ailleurs régulièrement les chiffres des contenus vidéos bloqués, à l’aide de leurs propres algorithmes de machine learning. En 2016, Twitter indiquait ainsi avoir supprimé 612 000 comptes faisant l’apologie du terrorisme, rappelle LePoint.fr.

C’est pour les contourner que les organisations dites terroristes posteraient sur des sites plus secondaires. Entre juillet et la fin de l’année 2017, ce sont 400 plateformes Web qui auraient hébergé ce type de contenus dont 150 d’entre elles pour la première fois.

Dès lors qu’un contenu est notifié comme étant à caractère terroriste, l’intervention d’un analyste humain doit ensuite décider si le contenu doit être effectivement retiré. La marge d’erreur du logiciel serait très faible, seuls «0,005%» des contenus non dangereux ont été identifiés par erreur, précise la société fondée par des ingénieurs-chercheurs et qui emploie aujourd’hui une cinquantaine de personnes.

600 000 livres pour des datas

Créée en 2014, ASI Data Science a officialisé sa collaboration avec le Ministère de l’Intérieur britannique (Home Office) à la mi-février. A l’origine, elle s’était spécialisée sur l’analyse de datas d’entreprises, notamment prédictives, pour des clients tels Siemens, EasyJet, Tesco ou encore la BBC.

Le programme est financé par des fonds publics à hauteur de 600 000 livres (673 500 euros); une goutte d’eau si l’on compare ce financement aux levées de fonds réalisées par les start-up du secteur de l’IA. L’Américain Vectra Networks, spécialisée dans l’analyse en temps réel de cyber-attaques, vient par exemple de lever  36 millions de dollars, à comparer aussi avec les montants à deux chiffres d’autres stars anglaises de l’IA citées par Techworld, sans oublier Google, qui racheta alors DeepMind pour 400 millions de livres. L’hypothèse serait donc que le partenariat entre la société ASI et le ministère repose davantage sur la mise à disposition de certaines données d’utilisateurs plutôt que sur le financement de ce développement.

Quelle réponse en FRANCE ?

Depuis l’adoption d’une loi de 2014, en France, c’est la CNIL qui oeuvre principalement au blocage des sites (et non des contenus) extrémistes. Entre mars 2016 et février 2017, l’organe public indiquait avoir reçu 165 demandes de blocages de sites de propagande terroriste, soit une hausse de 142% en un an. Le blocage des contenus (en majorité pédopornographiques), sans l’obligation de passer par un juge, est ensuite opéré par l’OCLCTIC (l’office central de lutte contre la criminalité liée aux technologies de l’information et de la communication).

Suite aux attentats du 13 novembre 2015 à Paris, l’OCLCTIC a procédé à 1 439 demandes de retrait de contenus, dont une majorité sur les réseaux sociaux, précise LeMonde.fr. Une méthode qui avait déjà suscité des craintes auprès des associations défenseurs des libertés sur Internet.

La France optera-telle pour une collaboration similaire à celle en Grande-Bretagne avec ASI Data Science?

«Le jour où l’on va commencer à appliquer ce genre de filtre automatique à autre chose que des contenus djihadistes… Dans un pays comme la France, la liste va être longue…», commente pour Globaliz Fabrice Epelboin, expert en cyber-sécurité et cofondateur de Yogosha.

Dernièrement, lors du dernier sommet du G7 en octobre 2017, les dirigeants s’étaient mis d’accord pour renforcer le blocage de contenus terroristes sur Internet. Des représentants de Google, Facebook et Twitter avaient alors participé aux discussions aboutissant à un accord qui permet la suppression des contenus interdits deux heures après leur mise en ligne.

Mais la bataille se mène désormais au niveau européen. De fait, la France milite activement pour contraindre les plateformes des GAFA à supprimer plus rapidement les contenus jugés illégaux sur les réseaux sociaux. La Commission européenne devrait rendre une proposition au printemps prochain.

 

1 commentaire

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.