Posté le janvier 14, 2023 à 7:15
LE CHATGPT FACILITE LE VOL DE DONNÉES EN DÉVELOPPANT DES CODES MALVEILLANTS
Il est dans la nature des nouvelles technologies de développer des conséquences imprévues de la dernière innovation. C’est le cas de ChatGPT (Generative Pre-trained Transformer). Ce programme a gagné en popularité grâce à ses interactions de chat réalistes et parfois d’une précision troublante, répondant aux questions comme un être humain.
Cependant, le dernier développement dans l’histoire de ChatGPT provient de hackers malveillants. Les acteurs malveillants peuvent très facilement utiliser les ressources de ChatGPT pour développer des codes malveillants et pirater votre appareil par ce biais.
Nouveaux outils, nouveaux problèmes
ChatGPT est actuellement gratuit pour tous. Il s’agit d’un exercice de retour d’expérience, et un abonnement payant au logiciel est prévu à l’avenir. Le logiciel a été développé par OpenAI, qui appartient ensuite à Microsoft. Aujourd’hui, cependant, un nouvel outil a été libéré pour toutes les parties concernées, qu’elles soient bienveillantes ou non.
Check Point Research (CPR), une société de cybersécurité, a récemment montré qu’elle constate une augmentation des tentatives faites par les cybercriminels Russes pour contourner les restrictions imposées par OpenAI. Ce faisant, ces acteurs malveillants espèrent utiliser ChatGPT à des fins malveillantes.
Aide à ceux qui n’ont jamais voulu aider
Le CPR a mis en lumière les différents hackers qui, dans les forums de piratage clandestins, discutent en profondeur de la manière de contourner les contrôles des cartes de paiement, des adresses IP et des numéros de téléphone. Ce sont toutes les mesures nécessaires pour accéder à ChatGPT si vous êtes situé en Russie.
CPR a souligné que de nombreux hackers s’intéressent de plus en plus à ChatGPT grâce à sa capacité à étendre leurs activités malveillantes.
Sergey Shykevich, responsable du groupe Threat Intelligence de Check Point Research, a souligné l’augmentation du nombre de hackers basés en Russie qui discutent en profondeur de ChatGPT. Il a déclaré qu’ils essayaient de contourner le geofencing afin d’utiliser le logiciel à des fins malveillantes. Shykevich a expliqué que l’explication la plus probable pour le CPR est que ces acteurs malveillants cherchent à utiliser ChatGPT dans leurs opérations quotidiennes en tant que criminels.
Les roues du progrès continuent de tourner
C’est un peu une arme à double tranchant. D’un côté, ChatGPT permet à un aspirant développeur de logiciels de devenir plus rentable, l’aide à accroître ses compétences en programmation et lui sert généralement d’assistant puissant. Malheureusement, on peut en dire autant des acteurs malveillants, qui peuvent utiliser ChatGPT pour développer des codes malveillants.
L’un de ces exemples provient d’un forum de piratage clandestin très populaire. Le 29 décembre 2022, un nouveau fil de discussion a été créé sous le titre « ChatGPT – Avantages du logiciel malveillant ». Dans ce fil, l’éditeur a révélé qu’il était en train d’expérimenter ChatGPT. Il a expliqué qu’il utilisait le logiciel pour recréer des techniques et des codes malveillants décrits dans divers articles et publications sur les logiciels malveillants courants.
Un autre exemple clé s’est produit plus tôt, le 21 décembre 2022. Un acteur malveillant a publié un script Python sur des forums clandestins, soulignant qu’il s’agissait du premier script qu’il avait jamais écrit. Un collègue cybercriminel a remarqué quelque chose d’intéressant : Le script utilisé par l’auteur original ressemblait fortement au code fourni par OpenAI.
La désinformation est également une menace
En réponse, l’auteur de l’affiche originale a révélé qu’OpenAI lui avait donné un « coup de main » en ce qui concerne le script malveillant original. Les implications qui en découlent mettent en évidence une nouvelle race de « script kiddies » ou skids, des individus avec peu ou pas de compétences techniques capables de pirater grâce à des scripts prémâchés qu’ils ont trouvés quelque part.
Un autre problème surprenant est que ChatGPT est capable de diffuser des fake news et de la désinformation aussi bien qu’un humain.
La bonne nouvelle, c’est qu’OpenAI est à la fois consciente de ces problèmes et y travaille. La société a entamé une collaboration avec le Center for Security and Emerging Technology de l’université de Georgetown, ainsi qu’avec le Stanford Internet Observatory. Ces deux partenariats ont pour but d’étudier comment de grands modèles de langage pourraient être utilisés à des fins de désinformation malveillante.
Chaque fois qu’une nouvelle technologie est développée, il y a toujours ceux qui voudraient que cette technologie soit utilisée à des fins malveillantes. Malheureusement, l’amélioration constante des modules de langage génératif ne fait pas exception à la règle. Alors que de nouvelles technologies comme celle-ci pourraient grandement améliorer un certain nombre de domaines, elles pourraient également accroître les éléments criminels du monde. Notamment par le biais d’opérations d’influence en ligne récurrentes ou de divers autres efforts déployés pour influencer l’opinion d’un groupe ciblé. Compte tenu du rythme effréné du développement de l’intelligence artificielle, il convient sans aucun doute de faire preuve de prudence.