24h/24

Actualités

L’IA ou les inquiétudes pour la sécurité

03/08/2023

Groupe OP

Une enquête de Malwarebytes révèle que 81 % des personnes sont préoccupées par les risques de sécurité posés par ChatGPT et l’IA générative, tandis que 7 % seulement pensent qu’ils amélioreront la sécurité sur Internet. 

Un grand nombre de personnalités du monde de la technologie ont signé une lettre en mars de cette année qui demandait à tous les laboratoires d’IA d’interrompre immédiatement et pendant six mois au moins, l’entrainement de systèmes d’IA plus puissants que GPT-4. Le temps de répit demandé étant consacré à « de développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement d’IA avancées, qui soient rigoureusement contrôlés et supervisés par des experts externes indépendants ». Le rapport cite les « risques profonds » posés par les « systèmes d’IA dotés d’une intelligence pouvant entrer en compétition avec l’intelligence humaine ». 

Les risques de sécurité potentiels relatifs à l’utilisation de l’IA générative par les entreprises sont bien documentés, tout comme l’impact connu des vulnérabilités sur les applications de grands modèles de langage qu’elles utilisent. 

Mais il y a un dilemme, car si l’IA générative/les LLM pouvait être utilisée de façon malveillante pour renforcer des attaques, certains cas d’usage de la technologie peuvent aussi améliorer la cybersécurité par la détection de la menace et la construction de produits améliorés, plus rapides et plus concis. 

Dans l’enquête de Malwarebytes, seulement 10 % des personnes interrogées étaient d’accord avec l’affirmation « J’ai confiance dans les informations produites par ChatGPT ». L’une des principales préoccupations concernant les données produites par les plateformes d’IA générative concerne le risque de renforcer la crédibilité d’un faux positif. 

En effet, l’IA générative peut créer des URL, des références et même des bibliothèques de code et des fonctions qui n’ont aucune existence réelle. Ce qui devient un problème sérieux pour les entreprises si leur contenu est fortement utilisé pour prendre des décisions, en particulier celles relatives à la détection et à la réponse aux menaces. 

La présence de l’intelligence humaine reste donc requise ! 

(Source Le monde Informatique)