L’impact de l’IA open source sur le hacking : le point de vue du FBI

Les hackers exploitent de plus en plus les modèles d’IA open source pour améliorer leurs outils et piéger les internautes, d’après le FBI (Federal Bureau of Investigation). Ces cybercriminels ont découvert que les chatbots basés sur des modèles de langage tels que ChatGPT, Google Bard ou Claude leur permettaient de faciliter leurs activités malveillantes. En utilisant des requêtes précises, ils parviennent à convaincre ces IA de contourner les mesures de sécurité et les restrictions mises en place par les créateurs de ces outils. Le FBI a donc tiré la sonnette d’alarme concernant l’utilisation massive de ces modèles de langage par la communauté criminelle.

Les hackers préfèrent utiliser des modèles d’IA open source gratuits et personnalisables plutôt que ceux contrôlés par des entreprises. Ces modèles open source, accessibles à tous sur internet, peuvent facilement être utilisés pour générer du contenu illicite. De plus, ces modèles sont plus légers et demandent moins de puissance de calcul que les grands modèles développés par des géants du secteur comme Google ou OpenAI. Par conséquent, ils peuvent être utilisés localement sur un ordinateur ou même sur un smartphone, un avantage non négligeable pour les développeurs et les cybercriminels. De nombreux chatbots conçus par des hackers pour générer du contenu illégal, tels que des malwares, sont disponibles sur le dark web. Certains d’entre eux sont même capables de créer des courriels de phishing persuasifs, de coder des virus comme des ransomwares et d’orchestrer des attaques. Ils sont vendus à un prix élevé sur ces marchés noirs.

Les pirates utilisent l’IA de différentes manières pour mener leurs activités illicites. Ils l’utilisent notamment pour concevoir des pages de phishing, imitant l’interface de plateformes officielles telles que les sites bancaires. De plus, ils exploitent les capacités des IA génératives pour créer des virus polymorphes, capables de modifier leur code à chaque exécution, rendant ainsi leur détection plus compliquée pour les antivirus traditionnels. Les escrocs utilisent également la technologie deepfake pour extorquer de l’argent à leurs victimes. Ils génèrent des images et des vidéos falsifiées, mettant en scène leurs cibles dans des situations compromettantes. Ils utilisent ensuite ces contenus pour harceler leurs victimes en les diffusant sur les réseaux sociaux ou les sites pornographiques. De plus, les hackers n’hésitent pas à utiliser une IA de clonage vocal pour manipuler leurs victimes au téléphone, en imitant la voix de proches, afin de les convaincre de leur donner de l’argent.

Le FBI prévoit une augmentation de l’utilisation criminelle de l’IA à mesure que cette technologie se démocratise. Il est donc essentiel de développer des stratégies de prévention et de protection pour contrer l’utilisation malveillante de l’IA par les hackers. Cela passe par la sécurisation des modèles d’IA open source et la mise en place de mesures de sécurité plus robustes pour éviter les manipulations. L’IA a le potentiel de bénéficier à la société dans de nombreux domaines, mais il est impératif de veiller à son utilisation responsable et éthique.

Source: PCMag