
Sign up to save your podcasts
Or


Dans cet épisode, Nicolas reçoit David Bizeul pour un retour approfondi sur le concept de SOC (Security Operations Center) moderne. David est notamment l’un des artisans de Secoya, une plateforme SOC développée par son équipe, ce qui lui confère une perspective à la fois pratique et stratégique sur l’évolution du domaine.
David commence par dresser un portrait du SOC contemporain tel qu’il devrait fonctionner aujourd’hui. Selon lui, trois grandes dimensions structurent un SOC efficace.
La première brique fondamentale est la capacité à ingérer, normaliser et consolider les événements de sécurité issus du système d’information. À cela s’ajoutent deux couches de connaissance complémentaires :
David explique que Secoya a justement construit son produit en partant de la CTI, avant même de s’intéresser aux événements clients. L’idée était d’abord de bien connaître la menace, puis de confronter cette connaissance aux données du terrain.
Une fois les données ingérées, trois moteurs distincts entrent en jeu :
Le moteur de threat intelligence : il repose sur une base de connaissances en graphe. Chaque indicateur (une adresse IP, par exemple) est relié à des nœuds représentant des malwares, des campagnes, des acteurs malveillants. Quand un indicateur apparaît dans les événements, le moteur remonte automatiquement tout le contexte associé, permettant d’évaluer rapidement la gravité de la situation.
Le moteur de corrélation : basé sur le langage Sigma et Sigma Correlation, il modélise des comportements suspects à partir d’enchaînements d’événements. Par exemple : cinq échecs d’authentification sur un poste suivis d’une connexion anormale sur un équipement réseau peuvent caractériser une tentative d’intrusion. Toutes les règles sont créées ou validées par des experts internes, ce qui permet d’atteindre un taux de faux positifs infime (environ 0,001 %).
Le moteur d’anomalie : il détecte les déviances par rapport à une baseline comportementale. Un pic de trafic soudain sur un serveur web, une exfiltration de données inhabituelle ou une activité de type brute force sont autant de signaux que ce moteur est conçu à relever.
Pour mieux illustrer les progrès accomplis, David fait un flash-back sur les SOC de la génération précédente. Monter un SOC il y a dix ans était une opération longue et coûteuse : infrastructure à déployer, licences SIEM à acquérir, threat intelligence quasi inexistante ou inutilisable, enrichissement des alertes quasi nul. Une seule alerte pouvait mobiliser un analyste pendant une heure sans déboucher sur une conclusion claire. Les règles de corrélation, souvent dérivées de politiques de sécurité mal rédigées, généraient un volume d’alertes sans valeur réelle. Le bilan : des millions dépensés pour un SOC qui ne produisait rien d’utile.
La génération d’alertes n’est qu’une étape. Le vrai objectif d’un SOC est de contenir les risques avant qu’ils ne se concrétisent en impacts. David décrit la chaîne de réponse moderne :
Qualification automatique des alertes : des agents IA prennent en charge le triage préliminaire, vérifient le contexte autour d’un événement (les cinq minutes avant/après, la nature de l’asset concerné), et déterminent si l’alerte mérite d’être escaladée ou peut être ignorée.
Playbooks automatisés : des plans de réponse préconfigurés peuvent déclencher des actions concrètes, comme l’isolation d’une machine compromise, sans intervention humaine immédiate.
Le rôle central de l’humain : malgré l’automatisation, l’analyste reste indispensable pour les décisions complexes, la communication de crise, l’adaptation des plans de réponse aux spécificités du client.
David aborde également la réalité économique : la grande majorité des entreprises n’ont pas les ressources pour gérer un SOC en interne. C’est là qu’interviennent les prestataires MDR (Managed Detection and Response), qui mutualisent les services de SOC pour plusieurs clients. Secoya répond à ce besoin avec une architecture multitenant : un opérateur MDR peut gérer dix clients dans une seule interface, tout en maintenant une séparation stricte des données.
La dernière partie de l’échange porte sur l’interopérabilité entre produits de cybersécurité, notamment via la plateforme ouverte OXA et le protocole MCP (Model Context Protocol). L’idée est de permettre à chaque outil de se « présenter » aux autres — ses capacités, ses endpoints, ses types de données — afin de construire des workflows automatisés sans friction.
Les deux interlocuteurs s’accordent sur un point crucial pour conclure : l’engouement pour l’IA agentique en 2025 a souvent masqué un problème fondamental. Si les sources de données en entrée sont de mauvaise qualité, l’IA produira des résultats erronés, voire dangereux. La vraie tendance de 2026 sera donc la valorisation des data sources de pertinence : une CTI fiable, une connaissance interne solide des assets, avant d’y injecter de l’intelligence artificielle. Un prochain épisode est annoncé pour approfondir spécifiquement cette question.
By Nicolas-Loïc Fortin et tous les collaborateursDans cet épisode, Nicolas reçoit David Bizeul pour un retour approfondi sur le concept de SOC (Security Operations Center) moderne. David est notamment l’un des artisans de Secoya, une plateforme SOC développée par son équipe, ce qui lui confère une perspective à la fois pratique et stratégique sur l’évolution du domaine.
David commence par dresser un portrait du SOC contemporain tel qu’il devrait fonctionner aujourd’hui. Selon lui, trois grandes dimensions structurent un SOC efficace.
La première brique fondamentale est la capacité à ingérer, normaliser et consolider les événements de sécurité issus du système d’information. À cela s’ajoutent deux couches de connaissance complémentaires :
David explique que Secoya a justement construit son produit en partant de la CTI, avant même de s’intéresser aux événements clients. L’idée était d’abord de bien connaître la menace, puis de confronter cette connaissance aux données du terrain.
Une fois les données ingérées, trois moteurs distincts entrent en jeu :
Le moteur de threat intelligence : il repose sur une base de connaissances en graphe. Chaque indicateur (une adresse IP, par exemple) est relié à des nœuds représentant des malwares, des campagnes, des acteurs malveillants. Quand un indicateur apparaît dans les événements, le moteur remonte automatiquement tout le contexte associé, permettant d’évaluer rapidement la gravité de la situation.
Le moteur de corrélation : basé sur le langage Sigma et Sigma Correlation, il modélise des comportements suspects à partir d’enchaînements d’événements. Par exemple : cinq échecs d’authentification sur un poste suivis d’une connexion anormale sur un équipement réseau peuvent caractériser une tentative d’intrusion. Toutes les règles sont créées ou validées par des experts internes, ce qui permet d’atteindre un taux de faux positifs infime (environ 0,001 %).
Le moteur d’anomalie : il détecte les déviances par rapport à une baseline comportementale. Un pic de trafic soudain sur un serveur web, une exfiltration de données inhabituelle ou une activité de type brute force sont autant de signaux que ce moteur est conçu à relever.
Pour mieux illustrer les progrès accomplis, David fait un flash-back sur les SOC de la génération précédente. Monter un SOC il y a dix ans était une opération longue et coûteuse : infrastructure à déployer, licences SIEM à acquérir, threat intelligence quasi inexistante ou inutilisable, enrichissement des alertes quasi nul. Une seule alerte pouvait mobiliser un analyste pendant une heure sans déboucher sur une conclusion claire. Les règles de corrélation, souvent dérivées de politiques de sécurité mal rédigées, généraient un volume d’alertes sans valeur réelle. Le bilan : des millions dépensés pour un SOC qui ne produisait rien d’utile.
La génération d’alertes n’est qu’une étape. Le vrai objectif d’un SOC est de contenir les risques avant qu’ils ne se concrétisent en impacts. David décrit la chaîne de réponse moderne :
Qualification automatique des alertes : des agents IA prennent en charge le triage préliminaire, vérifient le contexte autour d’un événement (les cinq minutes avant/après, la nature de l’asset concerné), et déterminent si l’alerte mérite d’être escaladée ou peut être ignorée.
Playbooks automatisés : des plans de réponse préconfigurés peuvent déclencher des actions concrètes, comme l’isolation d’une machine compromise, sans intervention humaine immédiate.
Le rôle central de l’humain : malgré l’automatisation, l’analyste reste indispensable pour les décisions complexes, la communication de crise, l’adaptation des plans de réponse aux spécificités du client.
David aborde également la réalité économique : la grande majorité des entreprises n’ont pas les ressources pour gérer un SOC en interne. C’est là qu’interviennent les prestataires MDR (Managed Detection and Response), qui mutualisent les services de SOC pour plusieurs clients. Secoya répond à ce besoin avec une architecture multitenant : un opérateur MDR peut gérer dix clients dans une seule interface, tout en maintenant une séparation stricte des données.
La dernière partie de l’échange porte sur l’interopérabilité entre produits de cybersécurité, notamment via la plateforme ouverte OXA et le protocole MCP (Model Context Protocol). L’idée est de permettre à chaque outil de se « présenter » aux autres — ses capacités, ses endpoints, ses types de données — afin de construire des workflows automatisés sans friction.
Les deux interlocuteurs s’accordent sur un point crucial pour conclure : l’engouement pour l’IA agentique en 2025 a souvent masqué un problème fondamental. Si les sources de données en entrée sont de mauvaise qualité, l’IA produira des résultats erronés, voire dangereux. La vraie tendance de 2026 sera donc la valorisation des data sources de pertinence : une CTI fiable, une connaissance interne solide des assets, avant d’y injecter de l’intelligence artificielle. Un prochain épisode est annoncé pour approfondir spécifiquement cette question.

11 Listeners

75 Listeners