\n\n\n\n Mon combat de 2026 : Bots & Authentification par ingénierie sociale - BotSec \n

Mon combat de 2026 : Bots & Authentification par ingénierie sociale

📖 11 min read2,157 wordsUpdated Mar 27, 2026

Salut tout le monde, Pat Reeves ici, de retour sur botsec.net. Nous sommes en mars 2026, et j’ai l’impression que nous sommes dans une guerre d’usure constante avec les menaces pilotées par des bots. Juste au moment où vous pensez maîtriser un aspect, un autre surgit. Aujourd’hui, je veux parler de quelque chose qui m’empêche de dormir la nuit : l’utilisation de plus en plus sophistiquée des bots dans l’ingénierie sociale, en particulier en ce qui concerne la violation des flux d’authentification. Nous ne parlons plus seulement de simples attaques par injection de mots de passe. Nous parlons de bots qui deviennent alarmants dans leur capacité à imiter l’interaction humaine pour contourner la MFA. Appelons cela « Social Bot-neering. »

Au-delà de la Force Brute : L’Essor du Social Bot-neering dans l’Authentification

Depuis des années, lorsque nous parlions de bots attaquant l’authentification, nous pensions directement aux attaques par force brute, à l’injection de mots de passe, ou peut-être à un contournement sophistiqué de CAPTCHA. Ces menaces sont toujours très réelles, ne vous méprenez pas. Mais dernièrement, j’ai observé une tendance inquiétante qui dépasse ces exploits purement techniques. Nous assistons à l’évolution de bots conçus pour interagir avec les utilisateurs, voire avec le personnel du support, d’une manière qui les incite à abandonner l’accès ou à contourner les mesures de sécurité.

Pensez-y. Nous avons investi massivement dans l’authentification multi-facteurs (MFA). Nous avons le TOTP, les notifications push, les clés FIDO – tout ça c’est génial. Mais que se passe-t-il lorsque le maillon le plus faible n’est pas la technologie, mais l’humain de l’autre côté, convaincu par un bot qu’il doit « vérifier » quelque chose, ou pire, qu’il parle à un agent de support légitime ?

Mon Propre Contact avec un Bot Malin

J’ai eu une expérience personnelle à ce sujet il y a quelques mois qui a vraiment ouvert mes yeux. J’ai reçu un message texte, apparemment de ma banque. Il disait quelque chose comme : « Urgent : Activité inhabituelle détectée sur votre compte. Veuillez vérifier les transactions récentes à [lien malveillant]. » Maintenant, en général, je suis plutôt bon pour repérer du phishing. Le lien avait l’air suspect, et je ne l’ai pas cliqué. Mais ensuite, environ 20 minutes plus tard, mon téléphone a sonné. Numéro inconnu. J’ai répondu, et c’était une voix IA étonnamment convaincante, calme et professionnelle, prétendant être du service de fraude de ma banque, faisant référence à l’« activité inhabituelle » exacte mentionnée dans le texte.

Elle m’a demandé de confirmer mon identité, non pas en donnant un mot de passe, mais en « vérifiant un code envoyé à mon téléphone. » J’ai reçu un SMS authentique de ma banque avec un code MFA légitime, comme si je me connectais. Le bot au téléphone m’a ensuite demandé de redire ce code. À ce moment-là, ça a fait tilt. Ce n’était pas juste une tentative de phishing. C’était une attaque coordonnée. Le bot avait déclenché une tentative de connexion sur mon compte, généré la MFA, et essayait maintenant de m’inciter à donner ce code. Si j’avais lu ce code, ils auraient pu accéder à mon compte. C’était d’une efficacité troublante.

Ce n’était pas le travail d’un script kiddie. C’était une opération sophistiquée, probablement orchestrée par une ferme de bots, capable d’initier des tentatives de connexion, d’envoyer des SMS ciblés, puis de faire fonctionner un bot vocal alimenté par IA pour extraire la MFA. Cela a contourné toutes mes protections techniques parce que cela exploitait ma confiance et mon sentiment d’urgence.

Comment les Bots Sociaux Contournent la MFA

Décomposons quelques-uns des vecteurs que j’observe :

1. Phishing MFA avec une Touche Spéciale

C’est ce qui m’est arrivé. Les bots initient une vraie connexion, déclenchant une demande MFA légitime (SMS, notification push, demande TOTP). Simultanément, le bot contacte l’utilisateur par un autre canal (SMS, email, appel vocal) en se faisant passer pour une entité de confiance (banque, support informatique, plateforme de médias sociaux). Le bot persuade ensuite l’utilisateur de fournir le code MFA, d’approuver la notification push, ou même de scanner un code QR malveillant.


# Pseudo-code simplifié pour une tentative de phishing MFA pilotée par un bot
function bot_orchestrate_mfa_phishing(target_user_id, bank_url, phishing_sms_template, ai_voice_script):
 # Étape 1 : Initier une tentative de connexion sur le service légitime
 login_session = initiate_login(bank_url, target_user_id, known_password_or_stolen_credential)
 
 if login_session.requires_mfa():
 mfa_challenge_id = login_session.get_mfa_challenge_id()
 
 # Étape 2 : Envoyer un SMS de phishing ciblé
 send_sms(target_user_id.phone_number, phishing_sms_template.format(bank_name="Votre Banque"))
 
 # Étape 3 : Initier un appel vocal IA
 ai_call_session = make_ai_voice_call(target_user_id.phone_number, ai_voice_script)
 
 # Étape 4 : Pendant l'appel, si l'utilisateur fournit le code MFA
 if ai_call_session.user_provides_mfa_code():
 mfa_code = ai_call_session.get_provided_mfa_code()
 
 # Étape 5 : Compléter la connexion avec le code MFA volé
 if login_session.verify_mfa(mfa_challenge_id, mfa_code):
 log_compromise_and_access_account(login_session)
 else:
 log_failed_mfa_attempt()
 else:
 log_user_did_not_provide_mfa()
 else:
 log_no_mfa_required()

Ce n’est plus juste une page de phishing statique. C’est dynamique, interactif, et exploite la confiance de l’utilisateur dans ses mécanismes MFA.

2. Usurpation d’Identité du Support et Ingénierie Sociale

Les bots sont maintenant utilisés pour automatiser des appels ou des discussions avec les services d’assistance. Le bot, se faisant passer pour un utilisateur légitime, pourrait prétendre avoir perdu son téléphone, oublié son mot de passe, ou être bloqué hors de son compte. Ils auront juste assez d’informations personnelles (souvent tirées de violations de données) pour sembler convaincants. Leur objectif ? Convaincre un agent du support humain de réinitialiser la MFA, d’enregistrer un nouvel appareil, ou de donner un accès temporaire. J’ai vu des rapports de bots générant même des « histoires tristes » ou exprimant de la « frustration » pour susciter de la sympathie chez les agents.


# Script hypothétique de bot pour l'ingénierie sociale du support (abrégé)
def bot_helpdesk_interaction(target_user_info):
 dialogue_flow = [
 {"bot": "Bonjour, il semble que je sois bloqué hors de mon compte, user_id {user_id}. Mon téléphone est cassé, et je ne peux pas recevoir de codes MFA."},
 {"human_agent": "Je comprends. Pouvez-vous me confirmer quelques détails ?"},
 {"bot": "Bien sûr. Mon nom complet est {full_name}, et ma date de naissance est {dob}."},
 {"human_agent": "D'accord, cela correspond. Comment souhaitez-vous procéder ?"},
 {"bot": "Pourriez-vous s'il vous plaît désactiver la MFA temporairement ou envoyer un nouveau lien d'enregistrement à mon email de secours {backup_email} ?"},
 # ... plus de dialogues pour persuader l'agent ...
 ]
 
 for turn in dialogue_flow:
 if "bot" in turn:
 send_message_to_helpdesk(turn["bot"].format(**target_user_info))
 wait_for_response()
 elif "human_agent" in turn:
 # Cette partie impliquerait le traitement du langage naturel pour comprendre la réponse de l'agent
 # et sélectionner la réponse appropriée suivante du bot
 pass 

C’est particulièrement dangereux car les agents du support sont formés pour aider les utilisateurs, et il est difficile de distinguer un humain stressé d’un bot bien programmé, surtout lorsque le bot a une bonne histoire de fond et des détails personnels (volés) précis.

3. Prise de Contrôle Automatisée des Comptes via les Flux de « Réinitialisation de Mot de Passe »

Bien que ce ne soit pas strictement un contournement de la MFA, c’est souvent un précurseur. Les bots exploitent les flux de « mot de passe oublié » mal configurés. Si un système permet trop de tentatives de réinitialisation de mot de passe, ou si les questions de sécurité sont facilement devinables (ou si les réponses ont été trouvées dans des violations), les bots peuvent automatiser ce processus. Une fois qu’ils réinitialisent le mot de passe, ils peuvent ensuite se connecter et faire face à la défi MFA, auquel cas ils pourraient passer à l’une des tactiques de social bot-neering ci-dessus.

Se Défendre Contre le Social Bot-neer

Alors, que faisons-nous ? Ce n’est pas juste un problème technique ; c’est un problème humain, exacerbée par la technologie.

1. Éduquez, Éduquez, Éduquez (Vos Utilisateurs ET Votre Personnel)

  • Pour les Utilisateurs : Renforcez le mantra « ne partagez jamais votre code MFA ». Soulignez que les services légitimes *ne* vous demanderont *jamais* de lire un code MFA par téléphone ou de le taper dans un lien qu’ils vous ont envoyé. Les notifications push doivent toujours être vérifiées par rapport à la tentative de connexion légitime que vous avez initiée. Faites-leur comprendre que s’ils n’ont pas initié une connexion, ils doivent refuser la demande.
  • Pour le Personnel du Support : C’est crucial. Formez-les rigoureusement sur les tactiques d’ingénierie sociale. Fournissez des protocoles clairs et non négociables pour les réinitialisations de MFA ou les changements d’accès aux comptes. Mettez en œuvre une vérification multilayer pour ces actions sensibles (par exemple, rappeler à un numéro enregistré, exiger une vérification en personne pour les comptes de grande valeur). Soulignez qu’un « distress » ou une « urgence » d’un utilisateur ne doit jamais supplanter les protocoles de sécurité.

2. Mettre en Œuvre une Détection de Bot Plus Forte à la Frontière et au Sein des Flux d’Authentification

  • Analyse Comportementale : Recherchez des modèles inhabituels. Un utilisateur initie-t-il une connexion depuis une nouvelle adresse IP, immédiatement suivie d’un appel au support demandant une réinitialisation de MFA ? Y a-t-il plusieurs tentatives de connexion échouées suivies d’une réussite après une interaction avec le « support » ?
  • Limitation de Taux et Ralentissement : Cela aide toujours. Limitez le nombre de tentatives de connexion, de réinitialisations de mot de passe, ou de défis MFA qui peuvent être initiés depuis une seule adresse IP ou pour un seul utilisateur dans un délai donné.
  • Empreinte de Dispositif : Si une connexion est tentée depuis un appareil non reconnu, même si la MFA est fournie, cela devrait déclencher un drapeau plus élevé.
  • Mécanismes de Challenge-Réponse : Au-delà du CAPTCHA, envisagez des défis de bot plus sophistiqués avant même de permettre qu’une tentative de connexion soit poursuivie ou qu’un défi MFA soit émis.

3. Moderniser les Options de MFA (et éliminer les plus faibles)

  • Dépasser les SMS OTP : Les SMS sont notoirement vulnérables au changement de carte SIM et à l’interception. Les notifications push avec des informations contextuelles (par exemple, “Tentative de connexion depuis New York, iPhone 15 Pro”) sont meilleures, mais restent sensibles à l’ingénierie sociale.
  • Clés de sécurité matérielles (FIDO2/WebAuthn) : Celles-ci sont beaucoup plus résistantes au phishing et à l’ingénierie sociale car la clé vérifie cryptographiquement l’origine de la demande de connexion. L’utilisateur n’est pas en train de taper un code ; il confirme simplement sa présence sur le bon site. Mon choix personnel pour les comptes critiques.
  • Biométrie : Bien que cela ne soit pas une solution miracle, combiner la biométrie avec une authentification forte des appareils ajoute une couche supplémentaire de friction pour les attaquants.

4. Politiques strictes de récupération de compte

Réévaluez vos processus de récupération de compte. Les questions de sécurité sont-elles trop faciles ? Est-il trop simple pour quelqu’un de prouver son identité par téléphone ? Mettez en place une vérification par couches pour la récupération de compte, nécessitant potentiellement des documents, des appels vidéo ou une présence physique pour les comptes sensibles.

Le chemin à parcourir

La course aux armements entre les professionnels de la sécurité et les bots malveillants s’accélère. À mesure que nos défenses techniques s’améliorent, les attaquants déplacent simplement leur attention vers l’élément humain, utilisant des bots sophistiqués pour étendre leurs efforts d’ingénierie sociale. Il n’est plus suffisant de simplement bloquer des adresses IP ou de détecter des attaques par remplissage des identifiants. Nous devons penser comme les attaquants, comprendre leurs tactiques évolutives et construire des défenses qui sont résilientes face aux exploits techniques et sociaux.

Mon conseil ? Supposez que les bots deviennent plus intelligents. Supposez qu’ils sont capables de tenir des conversations convaincantes. Et ensuite, construisez vos défenses – tant technologiques qu’humanistes – avec cette hypothèse fermement à l’esprit. Restez vigilants, restez en sécurité !

Pat Reeves out.

🕒 Published:

✍️
Written by Jake Chen

AI technology writer and researcher.

Learn more →
Browse Topics: AI Security | compliance | guardrails | safety | security

Partner Projects

AgntkitAi7botAgntlogAgntapi
Scroll to Top