Share XY Magazine
Share to email
Share to Facebook
Share to X
Pourquoi les villes créent des polices municipales. Vous avez du remarquer que les villes augmentent leurs effectifs de police au point de disposer localement de plus d’agents municipaux que de police nationale.
D’après le Ministère de l’Intérieur ( source DGFIP), 11% des communes étaient dotées d’une police municipale ou intercommunale en 2022 (Soit 3400 villes environ).
Mais cette proportion monte à 82% dans les communes de plus de 3 500 habitants. Les collectivités du bloc communal sont de plus en plus nombreuses à faire le choix d’investir ce champ des politiques publiques selon des modes d’organisations et des missions variables en fonction des territoires : cette compétence est donc loin d’être marginale pour le bloc communal.
La sécurité a un coup les dépenses de fonctionnement pour l’ensemble des polices municipales et intercommunale peuvent être estimées à 2,2 milliards d’euros en 2023. Il n’y a pas vraiment de chiffres nationaux fiables dans ce domaine.
Les dépenses de fonctionnement des polices municipales sont très dynamiques sur les deux dernières années, tirées pour partie par la hausse des recrutements et les revalorisations du point d’indice : elles ont augmenté d’environ 7,6% en 2023, après une hausse record de 9,0% en 2022.
Sur les autres années depuis 2017, les augmentations oscillaient entre +2,7% et +3,7% par an. En 6 ans, cette compétence a connu, là où elle est exercée, une montée en puissance près de 3 fois supérieure à celle des autres politiques publiques en section de fonctionnement : +33 en moyenne depuis 2017 contre +12% pour les autres dépenses de fonctionnement.
Sur le tableau ci dessous on voit bien les variation sur les principales polices en France.
Le nombre de policiers pour 1000 habitants est lui aussi très variable avec des villes très orientées police, Cannes et Perpignan. A ce stade, on peut constater que le parti politique du maire et l’afflux touristique joue sur les effectifs.
Pour aller régulièrement à Cannes, c’est une visibilité de la police importante en particulier sur le front de mer. Vous avez toujours un agent à portée de vue.
En 2022 on comptait 36 000 policiers municipaux en hausse de 18% alors que les effectifs de la police nationale et gendarmerie n’augmentent que de 3%.
Concentration dans les grandes villes : La police municipale est principalement un phénomène urbain, particulièrement présent dans les grandes villes.
Faible présence en zone rurale : Les territoires ruraux sont généralement dépourvus de police municipale.
Effectifs proportionnels à la taille :
Répartition des effectifs :
Si l’on oublie les grandes villes de police on voit que 8 agents par ville en moyenne, c’est en fait peu. Quand on considère les congés, les absences et les nuits. On a souvent que 1 à 2 policiers disponibles en même temps.
Les villes créent des polices municipales pour plusieurs raisons, qui peuvent être résumées comme suit :
La question de l’armement de la police municipale est un sujet complexe et évolutif en France. Les sources indiquent que l’armement des policiers municipaux s’est banalisé au cours des dernières années, notamment suite aux attentats terroristes et à la pression des syndicats et de l’opinion publique.
Quelques chiffres :
L’armement d’une police municipale a un impact financier significatif pour les communes. Cet impact est multiforme et s’étend des coûts directs liés à l’acquisition et à l’entretien des armes à des dépenses plus indirectes liées à la formation et à la sécurité des agents.
Coûts directs:
Coûts indirects:
Impact global sur le budget des communes:
Bien que le coût de l’armement en lui-même puisse sembler peu significatif par rapport au budget total d’une police municipale, les coûts indirects liés à la formation et à la sécurité des agents augmentent considérablement l’impact financier global.
L’étude de l’OFGL en 2022 a démontré que les dépenses de fonctionnement par agent sont supérieures de 12 % en moyenne pour les polices municipales armées par rapport aux polices non armées dans les communes de moins de 20 000 habitants.
Il est important de noter que les sources ne fournissent pas de chiffres précis sur l’impact financier global de l’armement d’une police municipale. Il est donc difficile de quantifier précisément cet impact.
En dehors des frais de personnel qui constituent la majeure partie des dépenses liées à la police municipale (91% selon l’étude de l’OFGL en 2022), plusieurs autres postes de dépenses sont à prendre en compte :
1. Équipements et fonctionnement :
2. Formation :
3. Bâtiments :
4. Autres dépenses :
Il est important de noter que les sources ne fournissent pas de ventilation précise des dépenses liées à la police municipale, à l’exception des frais de personnels et des investissements en vidéoprotection. Il est donc difficile de quantifier précisément l’impact financier de chaque poste de dépense.
L’analyse des sources fournies suggère que la couleur politique des communes influence les décisions prises concernant la police municipale, notamment en termes de dépenses et de doctrine d’emploi.
Impact sur les dépenses :
Impact sur la doctrine d’emploi :
Facteurs explicatifs:
Les collectivités font beaucoup d’efforts de sécurité dans un contexte de demande de la population et d’une présence réduite de la police nationale sur les aspects de sécurité de proximité.
On pense parfois que la police municipale rapporte des revenus à la ville avec les amendes. Aucune des études consultés n’en parle. En fait il n’y a pas de chiffres.
Les textes ont permis d’élargir les missions de la police municipale permettant aux maires d’intervenir sur plus de domaines.
Le cout d’un police est important car en plus des effectifs , il faut des véhicules, des locaux, des armements et assurer la sureté de l’ensemble.
Sources
Rapport de la Cour des Comptes sur les polices municipales
Vie publique, article sur la police municipale
OFGL Enjeux financiers des polices municipales, octobre 2024
The post Pourquoi les villes créent des polices municipales first appeared on XY Magazine.Comment les impôts utilisent l’intelligence artificielle. Vous avez déjà entendu dire que les impôts peuvent détecter une piscine ou une construction pas déclarée en utilisant l’intelligence artificielle de Google maps.
En fait les moyens vont beaucoup plus loin.
La cours des compte a mis le nez dans ce dossier et grâce à son rapport on peut en savoir plus sur les méthodes et les objectifs.
La rapport a été publié et j’ai pu en prendre connaissance.
Ce rapport de la Cour des comptes examine l’utilisation de l’intelligence artificielle (IA) au sein du Ministère de l’Économie et des Finances (MEF). Il analyse la diversité des systèmes d’IA mis en place, les gains de productivité associés, et les défis liés à la confiance et à l’impact environnemental de ces technologies.
Le rapport souligne que malgré un certain nombre d’initiatives, le MEF n’a pas encore de stratégie ministérielle cohérente pour l’IA, ce qui conduit à une utilisation inégale de la technologie et une gestion insuffisante des risques éthiques et environnementaux.
Le rapport formule des recommandations pour améliorer le pilotage et la gouvernance de l’IA au sein du MEF, notamment en créant une instance ministérielle dédiée, en promouvant une approche plus frugale de l’IA et en renforçant la prise en compte de l’impact environnemental.
Commentaire sur ces conclusions. Le Ministère a surtout investit en IA pour faire face à des effectifs trop peu nombreux pour réaliser les contrôles. Le seconde raison est la rentabilité rapide de ces dispositifs pour la détection des piscines, construction interdites. Cela permet de percevoir des impôts simples et dont les montants cumulés sont importants. (concernant les piscines 140 000 ont été détectées pour récupérer 40 millions de taxes, source )
Concernant les éléments d’approche frugale, c’est une formule à la mode pour mettre en tête que l’IA consomme des ressources et que des législation vont arriver pour limiter les usages. Je ne vais pas m’attarder sur ce point.
L’utilisation de l’IA au sein du ministère est inégale, certaines directions étant plus avancées que d’autres.
La DGFiP est le principal utilisateur d’IA, avec treize systèmes, soit 37 % du total. Cela s’explique par l’importance de son système d’information, ses effectifs (75 % des effectifs du ministère des finance) et les enjeux de sa modernisation. Les effectif ont été fortement réduits.
D’autres directions, comme la Direction Générale du Trésor et la Direction du Budget, ne portent aucun projet d’IA actuellement, malgré le potentiel de ces technologies.
L’accès aux données de masse et à la puissance de calcul nécessaires au développement de l’IA est un facteur important expliquant cette disparité.
La DGFiP et l’Insee, qui collectent et gèrent de grandes quantités de données, sont mieux placées pour développer des systèmes d’IA.
Les autres directions ont des bases de données plus limitées et manquent de puissance de calcul pour développer des systèmes d’IA de manière autonome.
Le pilotage ministériel du recours à l’IA est insuffisant, ce qui limite l’expérimentation de ces technologies dans toutes les fonctions où elles pourraient être utiles. La cour des comptes a injustifié une absence de stratégie globale. C’était déjà la cas dans son rapport sur La stratégie informatique de l’Etat.
Il n’existe pas d’instance clairement identifiée pour piloter la stratégie IA du Ministère. La démarche est clairement opportuniste.
Le Service du Numérique du Ministère n’a pas les attributions nécessaires pour accompagner les directions en retard dans le domaine de l’IA.
Le développement de l’IA au Ministère de l’économie et des finances est donc marqué par une concentration des moyens sur certaines directions et un manque de pilotage global. Cela limite le potentiel de l’IA à transformer l’action publique et à améliorer l’efficacité des politiques publiques.
Quelques exemples notables, tirés du tableau n°1 du rapport de la Cour des Comptes :
ClaudIA (Agence pour l’Informatique Financière de l’État – AIFE) : Il s’agit d’un robot conversationnel (« chatbot ») qui aide les utilisateurs de Chorus Pro, (le portail de facturation électronique de l’État), à effectuer leurs démarches. ClaudIA répond à près de 80 % des questions des utilisateurs. Les demandes non traitées par ClaudIA sont transmises à des conseillers humain en ligne.
IA Réponse Conso (Direction Générale de la Concurrence, de la Consommation et de la Répression des Fraudes – DGCCRF) : Cette IA générative automatise une partie des réponses aux demandes des consommateurs. Après avoir analysé le contenu des demandes et des pièces jointes, le système d’IA propose un courrier de réponse à partir d’une banque de paragraphes types. Ce courrier est ensuite modifié et validé par un agent.
Je suis allé sur le site poser un signalement. Je n’ai pas été informé que la requette serait traité par une IA.
Signaux faibles (Direction Générale des Entreprises – DGE) : Cet algorithme calcule le risque de défaillance à 18 mois des entreprises de plus de 10 salariés, en utilisant les données de l’État, des organismes de sécurité sociale et de la Banque de France. Les agents accèdent aux données des entreprises de leur ressort sur une plateforme sécurisée, où ils peuvent proposer des mesures aux entreprises et suivre leur mise en place.
Ciblage de la fraude et valorisation des requêtes (CFVR) (Direction Générale des Finances Publiques – DGFiP) : Ce système utilise l’analyse prédictive pour aider à programmer les contrôles fiscaux. Les algorithmes développés par un service central de la DGFiP détectent automatiquement les dossiers à risque. Les cas proposés par l’IA sont transmis aux directions interrégionales de contrôle fiscal (DIRCOFI), qui vérifient leur pertinence avant de lancer un contrôle et signalent les anomalies pour corriger les algorithmes.
Foncier Innovant (DGFiP) : Ce système utilise l’IA pour suivre l’évolution de la fiscalité foncière. Des photos aériennes prises par l’IGN sont analysées par une IA qui détecte les aménagements et les compare aux données cadastrales et fiscales. Les anomalies potentielles sont vérifiées par les agents. Le programme comprend deux fonctions : la détection des constructions non déclarées (déployée) et la mise à jour du plan cadastral (en expérimentation).
C’est le service qui est très rentable entre cout de mise en œuvre et impôt nouveau recouvré..
Ces services d’IA illustrent la variété des applications déjà mises en place au Ministère, touchant des domaines aussi divers que la gestion des finances publiques, la lutte contre la fraude, la protection des consommateurs et le soutien aux entreprises. Il est important de noter que ce ne sont là que quelques exemples, et que d’autres services d’IA sont en cours de développement ou en projet au sein du ministère.
Le coût total du développement des 35 systèmes d’IA recensés au sein du Ministère des finances sur la période 2015-2023 est estimé à 66,3 millions d’euros.
Ce montant englobe les achats de prestations externes et la valorisation des ressources internes mobilisées par les directions. Il est important de noter que ces chiffres ne prennent pas en compte les coûts de maintenance et de mise à jour des systèmes d’IA une fois qu’ils sont déployés. En général est entre 20 pour une maintenance logicielle et 40% si il faut prévoir des prestation de Maintient en condition opérationnelle.
La DGFiP représente la part la plus importante des dépenses, avec 91 % du total (60,1 millions d’euros). Cette concentration s’explique par l’importance du système d’information de la DGFiP, son volume de données et ses effectifs.
L’AIFE (5 %) et la DGE (2 %) représentent les autres contributeurs majeurs aux coûts de développement de l’IA
Au final c’est payé par les impôts, mais quel est le vecteur financier?
Certains projets d’IA du ministère de l’économie sont cofinancés par le Fonds pour la Transformation de l’Action Publique (FTAP). Ce fonds interministériel soutient des projets de modernisation de l’administration, dont ceux impliquant l’IA.
Le FTAP a alloué 164 millions d’euros à 18 projets d’IA, dont six portés par le ministère de l’économie et cinq par le ministère de la Transition écologique.
Le coût de développement de l’IA au ministère de l’économie est significatif, mais il est important de le mettre en perspective avec les gains de productivité et d’efficacité attendus de ces technologies.
La concentration des coûts sur la DGFiP soulève la question d’un accès plus équitable aux ressources pour les autres directions du ministère.
Transposition de la directive NIS2 pour le secteur public, et particulièrement impact sur les collectivités territoriales.
Découvrez cet article en vidéo sur la chaine youtube.
Un rapport d’impact a été publié, en octobre 2024. Il doit permettre la transposition de la directive.
Il fait 850 pages. Vous comprenez pourquoi un petit résumé s’impose. Pour les courageux, le lien vers le projet de transposition.
La France a pris du retard sur la mise en œuvre de la directive NIS2 en raison de la dissolution de cet été.
En fait, c’est deux textes qu’il faut transposer, la directive DORA (Digital Operational Resilience Act) et la directive NIS2. Nous allons analyser la transposition pour les collectivités territoriales.
Les collectivités territoriales sont intégrées dans ces nouvelles exigences en raison de la multiplication des attaques informatiques les affectant et de leur faible sécurisation. L’objectif est d’adopter une approche proportionnée, adaptée à leurs moyens et à leur maturité en matière de cybersécurité.
Les association de Maires sont déjà intervenues pour signaler les couts estimés importants de soumettre toutes les collectivités à la Directive NIS2. Pourtant la sécurité doit être la priorité pour mettre en place une administration numérique de confiance.
La première étape est de catégoriser les collectivités en fonction de leur importante. Il existe plusieurs catégories
Désignation des opérateurs d’importance vitale: Les collectivités territoriales désignées comme opérateurs d’importance vitale (OIV) devront, comme c’est déjà le cas, désigner des points d’importance vitale (PIV) et des systèmes d’information d’importance vitale (SIIV).
Déjà cette étape va couter de l’argent pour dresser l’inventaire. Faire les arbitrages et selon les cas investir pour renforcer la sécurité de chaque point.
Cette désignation se fera par l’autorité administrative (ministère coordinateur ou préfet de département après avis de la CIDS ou de la CZDS). Certaines collectivités sont déjà désignées OIV en raison des activités qu’elles assurent pour leurs administrés.
De nouvelles collectivités pourraient être concernées par le dispositif, notamment celles ayant à leur charge des opérateurs d’importance vitale figurant dans les nouveaux secteurs d’activité. En effet, certaines collectivité gèrent en direct des régies d’eau, des services de secours et autre activités vitales.
Le dispositif prévoit cet inventaire, puis une information pour chaque collectivité. Les collectivités territoriales concernées seront systématiquement informées si leur délégataire exerce une activité d’importance vitale ou gère une infrastructure critique pour leur compte.
Les dispositions envisagées n’entraînent pas de frais supplémentaires pour les collectivités déjà concernées par le dispositif en vigueur, les obligations de protection et de continuité d’activité figurant déjà dans la loi. Elles continueront à assumer à leurs frais les mesures indispensables à leur résilience.
A chaque fois que l’Etat a promis aux collectivités que le cout serait constant, cela s’est avéré faux. Dans ce cas c’est évident, la sureté cyber coute de plus en plus cher. Les règles vont se resserrer d’année en année et les attaques sont toujours plus importante et ciblées.
Les collectivités territoriales désignées OIV devront élaborer un plan de résilience opérationnel. Le voila le cout additionnel qui pointe.
Résultat des enquêtes: Les collectivités territoriales ne pourront plus déroger aux avis défavorables des enquêtes de sécurité.
Sanctions: Une disposition expresse exclut les collectivités territoriales des sanctions financières, qui ne pourront être prononcées qu’à l’encontre des personnes morales de droit privé.
C’est une inégalité injustifiable, Les collectivités, entités qui sont redevables devant les citoyens, sont de fait exclues de toutes les règles de sanctions. Comment assurer que les travaux seront menés si les entités ne risquent rien. Le secteur public devrait plus que le privé avoir cette exigence de responsabilité.
L’inventaire actuellement admis? c’est QUE 1489 entités, collectivités territoriales et groupements de collectivités territoriales, ainsi que certains organismes sous leur tutelle, devraient être concernés au titre des entités essentielles.
Cela comprend les régions métropolitaines (visiblement les outre mer sont exclues, les départements métropolitains et d’outre-mer, les métropoles, les communautés urbaines et les communautés d’agglomérations critiques dont la population bénéficiaire est supérieure à 30 000 habitants.
Les 992 communautés de communes métropolitaines et d’outre-mer seront concernées au titre des entités importantes.
La très grande majorité des communes (99% ont moins de 30 000 habitants) ne sont donc concernées que par leur intercommunalité de rattachement. Les plus vulnérables et les moins bien équipés ne seront pas soumis à la directive.
Le rapport d’impact, dans ses 850 pages, ne mentionne pas de cout spécifique. Il indique même qu’il n’y en aura pas. Cependant, il est possible d’extrapoler certains éléments de coûts potentiels à partir des informations disponibles.
La directive NIS2 élargit considérablement le nombre d’entités soumises aux exigences de cybersécurité, passant d’environ 500 sous NIS1 à près de 15 000 en France. Cette augmentation implique un coût important pour les nouvelles entités qui devront mettre en place les mesures de sécurité nécessaires pour se conformer à la directive NIS2.
Les entités concernées par NIS2 devront mettre en œuvre un ensemble de mesures de sécurité techniques et organisationnelles pour répondre aux exigences de la directive NIS2, notamment en matière de gestion des risques, de déclaration d’incidents et de partage d’informations. La mise en place de ces mesures peut engendrer des coûts liés à l’acquisition de nouvelles technologies, à la formation du personnel et à la mise en place de nouveaux processus.
Les entités concernées par NIS2 auront l’obligation de s’enregistrer auprès de l’Agence nationale de la sécurité des systèmes d’information (ANSSI). Cet enregistrement peut impliquer des coûts administratifs pour les entités. L’ANSSI n’a pas encore indiqué quelles seront les exigences de cet enregistrement.
Bien que les sources ne fournissent pas de chiffres précis sur le coût de NIS 2, elles permettent de comprendre que la mise en conformité avec cette directive représentera un investissement important pour les entités concernées.
Il est recommandé aux entités de réaliser une analyse approfondie de leurs besoins en matière de cybersécurité afin d’estimer les coûts de mise en conformité avec NIS 2 et de planifier les investissements nécessaires.
Date limite de transposition de la directive NIS2 : 17 octobre 2024. Les États membres de l’Union européenne, dont la France, ont jusqu’à cette date pour transposer la directive NIS2 dans leur droit national. On est donc bien en retard dès ce jour.
Notification à la Commission européenne : 17 janvier 2025. Les pays ont ensuite jusqu’à cette date pour informer la Commission européenne des règles et mesures adoptées pour la transposition de NIS 2.
Enregistrement des entités concernées : dès l’entrée en vigueur de la loi. Les entités concernées par NIS 2, qu’elles soient des entités essentielles ou importantes, auront l’obligation de s’enregistrer auprès de l’autorité nationale de cybersécurité (ANSSI). Selon des modalités qui seront surement décrites par décret.
La réglementation NIS 2, une fois mise en œuvre en France, définira les délais spécifiques accordés aux différentes entités pour se conformer aux exigences de la directive.
Délai de tolérance de l’ANSSI : 3 ans. L’ANSSI a annoncé un délai de tolérance de trois ans pour accompagner les entreprises et donc surement les collectivités) dans leur mise en conformité avec NIS 2. La conformité complète devrait donc être exigée pour 2027.
En résumé, la mise en place de NIS2 en France suit un calendrier précis avec une date limite de transposition fixée au 17 octobre 2024 et une entrée en vigueur de la loi le lendemain de sa publication au Journal officiel.
Les entités concernées devront s’enregistrer dès l’entrée en vigueur de la loi et disposeront de délais spécifiques, à définir par la réglementation, pour se conformer pleinement aux exigences de la directive.
Autre article sur ce sujet ici
The post Transposition de la directive NIS2 pour le secteur public first appeared on XY Magazine.Nous consommons tous quotidiennement des contenus multimédia. A la question, comment votre consommation multimédia impact le climat. Que savons nous de cela ?
Pour répondre, regardons l’étude d’octobre 2024 de L’ARCOM, l’ARCEP et l’ADEME sur ce thème.
L’ARCOM est l’Autorité de régulation de la communication audiovisuelle et numérique.
L’ARCEP c’est l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse.
l’ADEME c’est l’agence de la transissions écologique.
Selon les usages actuels, la télévision reste le média le plus impactant. Sur cet impact, la cause n’est pas le temps de visionnage mais l’impact de la fabrication et du recyclage du terminal, en l’occurrence la télévision. Les téléviseurs 4k et 8k consomment beaucoup et utilisent beaucoup de matériaux rares. La télévision c’est encore 70% de l’impact. Rattrapé par le streaming.
Le second usage c’est le streaming vidéo, Youtube, Netflix, Apple TV…..
L’étude met également en évidence que la publicité peut augmenter jusqu’à 25 % l’impact carbone du visionnage de contenus vidéo, en particulier pour les usages en TV de rattrapage.
Conclusion abonnez vous pour ne pas avoir de publicité!!
Sur ces indicateurs, la limitation de la taille des écrans, l’augmentation de leur durée d’usage. C’est la principale source de carbone. Il faut s’attendre un jour à des textes de loi limitant la consommation des écrans et donc leur taille.
Pour avoir une bonne image de ce que représente nous usages audiovisuels, l’ARCOM a fait plusieurs comparaisons.
La comparaison en équivalent automobiles est impressionnante.
Il faut quand même avoir en tête que nous sommes accros aux contenus. Notre consommation augmente et les opportunités de le faire hors domicile sont très impactant (réseau 5g et 6g). Entre les écrans que l’on a à domicile, le smartphone et le pc du travail pour certain, on passe la journée devant un écran.
A cela vous ajoutez que l’on change de smartphone tous les 2.5 ans, que l’on a plusieurs écrans à la maison, et vous avez un impact individuel qui est énorme.
Comme chaque étude de l’ARCOM les conclusions restent les mêmes, éco conception, sobriété. En clair, mesures de restriction des capacité des services, et réduction des usages.
Jamais l’impact du progrès technique n’est mesurer. Alors même que le track record de ces technologie démontre que les matériels et services plus récents sont mieux conçus que les anciens.
La liste des recommandation est bien formulée. « Réduction des usages sans nuire à la création ». En vrai, si on produit moins de contenus et de visualisation et on reluit la création. C’est obligatoire et lié.
C’est l’offre de contenus qui fait la demande. Si on décide que les programmes cessent entre minuit et six heures du matin et bien on ne consommera pas.
Les mesures d’éco conception sont à retenir car elles vont avec l’innovation. C’est nécessaire de le faire.
La sensibilisation aux bonne pratiques. C’est la façon polie de dire que l’on va prendre des mesures pour réduire les usages. Limiter la résolution des formats(4k 8k) Limiter le temps de visionnage, mesure les temps d’écoute pour culpabiliser.
L’étude a constaté que ces usages représentaient 0,9 % de l’empreinte carbone totale de la France et 2,9 % de sa consommation électrique en 2022.
La télévision linéaire (en direct) est le mode de consommation le plus polluant, représentant 52 % de l’empreinte carbone des usages audiovisuels. Cela est dû à sa popularité et à l’utilisation massive des téléviseurs, qui sont des appareils particulièrement énergivores
La vidéo à la demande est l’usage le plus polluant à usage égal
La télévision en replay et la radio numérique sont les options les plus vertueuses
L’étude a également révélé que l’impact environnemental variait en fonction du support utilisé :
Le streaming audio via le réseau mobile sur smartphone émet quatre fois plus de CO2 que l’écoute de la radio FM sur un transistor
La télévision linéaire en TNT génère environ 20 % d’émissions de CO2 en moins par heure que la vidéo à la demande sur une smart TV ou que la consommation de vidéos sur smartphone via le réseau mobile.
Sources :
Etude ARCOM
Synthèse ARCOM
Article sur ARCEP
The post Comment votre consommation multimédia impacte le climat first appeared on XY Magazine.Comparatif GSHOCK GBD H1000 contre GBD H2000 quelle est la meilleure ?
La montre GSHOCK est un incontournable pour les amateurs de sport et d’aventures en plein air. Avec la sortie des modèles GBD-H1000 et GBD-H2000, il est temps de se pencher sur leurs spécificités. Quel modèle répondra le mieux à vos besoins ? Dans ce comparatif, nous allons explorer les nouveautés et fonctionnalités du GBD-H2000 tout en mettant en lumière l’héritage solide du GBD-H1000. Préparez-vous à découvrir lequel de ces deux géants saura vous accompagner dans vos défis sportifs !
Le comparatif entre la GSHOCK GBD-H1000 et la GBD-H2000 met en avant des avancées technologiques notables. La GBD-H2000 se distingue par un affichage amélioré, une connectivité optimisée et de nouvelles fonctions adaptées aux sportifs. Son design moderne attire également l’attention. Il se différencie des GSHOCK traditionnelles. Bracelet plus souple, légèretés. et absence de métal sur le fond de boite.
D’un autre côté, la GBD-H1000 reste un modèle emblématique avec ses caractéristiques robustes et son interface utilisateur intuitive. Bien qu’il soit toujours très performant.
La GBD-H2000 se positionne comme un véritable allié pour les sportifs. Grâce à ses capteurs avancés, elle offre des données précises sur la fréquence cardiaque, la cadence et même le suivi de l’oxygène sanguin. Ces fonctionnalités permettent aux athlètes d’optimiser leurs performances lors d’entraînements intenses.
La GBD-H2000 se distingue par ses fonctionnalités outdoor, essentielles pour les amateurs de randonnée et d’aventures en plein air. Elle intègre plusieurs sports absents sur le GBD h1000; La natation, le sport en salle, la méditation, le fitness.
Le choix entre la GSHOCK GBD H1000 et la GBD H2000 dépend largement de vos besoins spécifiques. La GBD-H2000 se distingue par ses fonctionnalités avancées, son autonomie améliorée et une meilleure intégration avec les applications sportives. Si vous recherchez des données plus précises lors de vos activités outdoor, elle pourrait être le meilleur choix.
Cependant, la GBD-H1000 reste un excellent modèle pour ceux qui privilégient un design intemporel et une robustesse éprouvée.
Ayant les deux, je porte mon choix sur le GBD H2000 qui ouvre un panel plus large de sports et apporte des fonctionnalités plus proches de mes besoins actuels.
Autres articles sur GSHOCK sur le site
Le test de la GBD h1000
The post Comparatif GSHOCK GBD H1000 contre GBD H2000 first appeared on XY Magazine.J’ai testé NOTEBOOKLM de GOOGLE. Google a récemment lancé un nouvel outil prometteur : NotebookLM.
En tant que passionné de technologie, j’ai décidé de plonger dans l’univers de ce carnet révolutionnaire. Qu’est-ce qui le distingue des autres applications ? Est-il à la hauteur des attentes ? Je vous dévoile mon expérience avec cet outil innovant qui pourrait bien changer notre façon de chercher et d’organiser nos données personnelles et professionnelles.
Notebook LM de Google se présente comme un outil prometteur pour quiconque cherche à optimiser sa recherche d’informations. Dès le premier contact, l’interface est intuitive et conviviale. L’utilisateur peut rapidement s’y habituer sans nécessiter de formation approfondie. Les fonctionnalités sont bien pensées et permettent une navigation fluide.
C’est vraiment très simple. Dès le départ il faut créer un espace de travail dans lequel vous allez stocker vos éléments.
La promesse du service, c’est que cet espace va devenir un mini espace IA privé. NotebookLM va analyser tout le contenu de ce que vous allez stocker et va pouvoir générer des réponses à des questions que vous poserez sur ce contenu. C’est un chat GPT personnel limité à un sujet et des contenus donnés.
L’une des caractéristiques les plus impressionnantes est la capacité de centraliser diverses informations en un seul endroit. Que ce soit du texte, des images ou même des liens vers d’autres sites web, NotebookLM permet de rassembler tout cela dans un environnement cohérent. Cela facilite non seulement la collecte mais aussi l’organisation des données que vous pouvez consulter ultérieurement.
Une autre force notable réside dans ses outils de personnalisation. Vous avez la possibilité d’ajouter vos propres notes ou commentaires sur chaque élément que vous sauvegardez. Cette approche personnalisée rend votre expérience unique et adaptée aux besoins spécifiques de votre projet.
Ce que l’IA apporte en plus par rapport au mode recherche de Microsoft de Windows. C’est que non seulement Notebooklm vous apporte une réponse, mais il la génère une synthèse de tous les éléments qu’il a dans son espace. C’est bien ici que le service apporte plus. Vous ne pouvez plus rien oublier entre ce qi a été dit dans un PPT, un compte rendu et dans une vidéo.
Grâce à cette option, il suffit de quelques clics pour retrouver des informations précises parmi toutes celles que vous avez enregistrées au fil du temps. La rapidité avec laquelle on peut accéder aux données stockées optimise considérablement le processus de travail quotidien, surtout lors d’une tâche qui exige une attention particulière aux détails.
En termes de collaboration, NotebookLM offre plusieurs options intéressantes pour partager vos données avec vos collègues ou amis. Il devient alors facile d’échanger idées et ressources sans avoir à jongler entre différents outils ou applications tierces qui pourraient compliquer le flux créatif.
Un aspect parfois sous-estimé est celui lié à la sécurité et à la confidentialité des données stockées dans cet outil Google. Google indique que les données restent privées. Comme pour le moment le service est gratuit, il faudra bien trouver un modèle économique autour du NotebookLM. Quand les services sont gratuits c’est les données qui sont exploitées. Attention donc, à terme, avec ce service.
J’ai trouvé un autre service qui semble proche mais je n’ai pas pu le tester car il est payant. C’est SANA de Sanalabs.
L’application SANA semble présenter les même fonctions de NotebookLM avec une approche entreprise uniquement.
NotebookLM de Google se distingue par sa capacité à fonctionner avec une variété impressionnante de sources. Cette flexibilité le rend particulièrement adapté aux besoins des entreprises.
L’une des caractéristiques les plus remarquables de NotebookLM est sa compatibilité avec différents types de contenu. Que vous souhaitiez intégrer des textes provenant d’articles scientifiques, d’ouvrages littéraires ou même de pages web, cet outil sait s’adapter à vos besoins. Vous pouvez facilement rassembler des informations issues de diverses plateformes et les centraliser dans un seul carnet numérique. C’est aussi surtout bien adapté à l’éco système GOOGLE, dont Google Drive.
Cette approche multi-sources permet également une recherche approfondie et diversifiée. Les utilisateurs peuvent croiser différentes perspectives sur un même sujet en utilisant NotebookLM pour collecter et organiser leurs données.
De plus, la fonctionnalité collaborative intégrée au carnet facilite le travail en groupe. Plusieurs utilisateurs peuvent ajouter leurs propres contributions simultanément depuis plusieurs appareils. C’est particulièrement adapté pour la gestion de projets.
NotebookLM prend également en charge différents formats multimédias tels que les vidéos et les images. Ainsi, il est possible d’enrichir votre contenu avec du matériel visuel pertinent qui accompagne vos notes textuelles. C’est un grand avantage pour ceux qui apprennent mieux par l’intermédiaire d’illustrations ou qui souhaitent présenter leurs recherches sous forme dynamique.
Que vous cherchiez à simplifier votre flux de travail ou à enrichir vos projets créatifs, NotebookLM offre une solution pratique et innovante pour tous ceux qui cherchent à maximiser leur efficacité organisationnelle dans un monde saturé d’informations.
L’une des fonctionnalités clés réside dans sa capacité à comprendre le contexte de ce que vous recherchez. Au lieu de simplement fournir une liste d’articles ou de pages web, NotebookLM propose des résultats qui semblent pensés pour vous. Cela rend la recherche beaucoup plus fluide et pertinente. J’ai pu constaté qu’il s’adapte rapidement aux besoins spécifiques des utilisateurs.
C’est ce qui va faire le vraie différence entre un moteur de recherche depuis les années 1990 et l’IA qui génère une vraie réponse. Attention cependant, il faut vérifier la réponse. L’IA peut se tromper.
Un aspect fascinant est l’interaction avec l’utilisateur durant la recherche. Si je souhaitais approfondir un sujet particulier, l’outil me posait des questions pour mieux cerner mes attentes. C’est comme si un assistant personnel était là pour m’aider à naviguer dans ma quête d’informations détaillées et pertinentes.
Les résultats obtenus étaient souvent accompagnés d’une synthèse claire et concise, facilitant ainsi la compréhension rapide du contenu proposé. Je n’avais pas à passer trop de temps à trier les informations ; tout semblait être organisé intelligemment dès le départ. Cette approche permet vraiment aux utilisateurs de gagner du temps précieux lors de leurs recherches.
Une autre dimension importante est la personnalisation continue que propose cet outil au fur et à mesure des interactions répétées avec lui. Plus j’utilisais NotebookLM, plus il devenait astucieux dans ses suggestions futures basées sur mes choix antérieurs — c’est captivant ! On ressent vraiment une évolution constante dans son apprentissage afin d’affiner encore davantage ses réponses.
Les applications potentielles de NotebookLM sont vastes et variées. Cet outil a le potentiel de transformer la manière dont nous organisons nos idées, faisons des recherches et collaborons sur différents projets. Que ce soit pour les étudiants qui cherchent à structurer leurs révisions ou pour les professionnels en quête d’efficacité dans leurs rapports.
Imaginez pouvoir combiner vos notes personnelles avec des résultats de recherche pertinents tout en ayant accès à divers types de médias comme des vidéos ou des articles scientifiques. Cela ouvre la porte à une approche plus intégrée du savoir. De plus, grâce aux capacités d’IA que propose Google, l’outil peut suggérer des ressources basées sur vos intérêts et votre historique de recherche, rendant chaque session unique et adaptée.
Dans le milieu académique et en entreprise, cet outil pourrait révolutionner la façon dont les projets collaboratifs sont menés. Les équipes peuvent partager facilement leurs trouvailles tout en conservant une traçabilité claire de l’évolution du travail effectué ensemble. La possibilité d’accéder simultanément aux mêmes documents sans confusion est un atout majeur.
Pour ceux qui travaillent dans le secteur créatif, NotebookLM offre également une palette intéressante. Il devient possible d’organiser ses inspirations visuelles avec facilité tout en faisant appel à des références théoriques nécessaires au développement d’un projet artistique.
Au fur et à mesure que cette technologie évolue, il sera fascinant d’observer comment elle s’intègre dans notre quotidien numérique déjà richement chargé. L’avenir semble prometteur pour ceux qui souhaitent maximiser leur productivité par le biais intelligent proposé par NotebookLM.
Votre identité numérique gérée par l’Etat. L’Etat a décidé d’accélérer et multiplie les initiatives depuis quelques mois. Il annonce maintenant PRO CONNECT pour les agents de la fonction publique et les salariés.
J’ai déjà produit plusieurs article sur France connect ou les identités numériques souveraines avec France identité.
Le projet a pris du retard et ne couvre pas tous les besoins. Actuellement seules les démarches des citoyens privées sont gérés. Il manque une brique très importante, l’identité numérique unique des fonctionnaires et des employés du privé.
L’Etat propose actuellement plusieurs services d’identités pour plusieurs publics.
Avec France Connect que beaucoup utilisent déjà pour les impôts ou la sécurité sociale, mais aussi des services locaux.
C’est actuellement 40 millions d’identités gérées selon le site. 1400 démarches accessibles. Cette identité numérique vous permet de vous authentifier en ligne sans à avoir à produire de pièces justificatives.
La DINUM (la direction interministérielle du numérique) a annoncé, ce mois-ci, la mise en place de PRO CONNECT un nouveau service d’authentification unifié pour tous les agents publics (de la fonction publique d’État et territoriale) et professionnels du secteur privé renforçant la lisibilité de l’offre d’identité numérique de l’État.
Selon le communiqué, ce lancement s’inscrit dans la continuité de celui de La Suite numérique en mai 2024, visant à fédérer tous les agents et professionnels de la sphère publique autour des outils qu’ils utilisent au quotidien, dont l’interconnexion rend le travail collaboratif plus efficace et plus fluide. ProConnect s’appuie également sur le succès de FranceConnect permettant à plus de 43 millions de Français d’accéder à leurs démarches en ligne de manière simple et sécurisée avec 1 seul identifiant et 1 seul mot de passe existant.
Concrètement, pour les professionnels du secteur privé, ProConnect va se transformer en une solution d’authentification unifiée, en remplaçant les certifications multiples par une connexion unique à partir de février 2025. Ce changement vise à faciliter la collaboration avec les acteurs privés du numérique, tout en offrant à leurs utilisateurs une authentification simplifiée et conforme aux standards de sécurité de l’État, en accord avec le principe “Dites-le-nous une fois”.
Pour les agents publics et ceux de la fédération Éducation-Recherche, ProConnect succède à AgentConnect leur permettant de bénéficier d’une identité numérique unique, centralisant l’accès à l’ensemble de leurs outils numériques. Cette initiative s’inscrit pleinement dans la stratégie d’interopérabilité portée par la DINUM, visant à éliminer la complexité liée à la gestion de multiples identifiants.
Information importante, Agent Connect est définitivement mort. Ce service ne sortira jamais. Il est remplacé par un service unique pour les pro public et privé, ce qui est bien plus malin.
La disponibilité est proche puisque le service sera disponible en février 2025 dans moins de 6 mois.
D’ici fin 2025, l’ambition est d’étendre le nombre de services connectés à ProConnect avec un effort particulier sur l’agriculture, d’interconnecter Démarches Simplifiées, de renforcer la certification des dirigeants facilitant les démarches des entreprises auprès des services publics, et d’assurer la délégation de la certification à des tiers de confiance renforçant ainsi la sécurité et la flexibilité du système.
Tous les ministères ne semble pas prêt en même temps. C’est identique pour les entreprises qui n’ont pas du tout pris en compte ce service pour le moment.
Liste des services actuels (extrait) que vous trouvez le sur site PRO CONNECT
Sur le site PRO CONNECT on peut tester son éligibilité à disposer un jour d’une identité numérique. j’ai fait le test, je suis éligible.
La road map du service est publiée et est assez ambitieuses en calendrier.
On le voit l’ambition est cette fois bien là.
Ou pourquoi demander une identité souverain pour travailler?
La question des identités numériques est une rude bataille que le France mène contre les GAFAM.
Comme vous avez un Etat civil géré par votre commune. Il vous faut une identité numérique gérée par votre pays. Actuellement les leaders sont des sociétés privées comme APPLE, GOOGLE, FACEBOOK. Il vous permettent de consommer des services en partageant leurs identifiants.
Pourtant pour les services publics et entreprises, on ne peut pas utiliser ces identités. Aucune solution souveraine n’est proposée.
L’ETAT va enfin imposer une norme avec PRO CONNECT. Les fonctionnaires vont pouvoir se partager des documents et des services en confiance sans utiliser des services étrangers et non sécurisés. Les entreprises également.
La sécurité des transaction va être améliorée.
Si vous avez des tendances complotistes, vous pouvez aussi considérer que c’est plus de contrôle de l’ETAT. C’est pas faux. Là ou l’Etat respecte des règles et des lois, les entreprises privés ne sont soumises à aucunes de ces règles et exploitent vos données à des fin commerciales. A vous de choisir votre camp.
The post Votre identité numérique gérée par l’Etat first appeared on XY Magazine.L’ARCEP veut rendre obligatoire l’étiquetage écologique des produits numériques pour peser sur la réduction de l’empreinte carbone.
L’ARCEP a déjà produit de nombreuses notes sur ce sujet. Sur XY Magazine, on a traité du sujet de la source du trafic internet.
L’éco-conception est au cœur des préoccupations actuelles, surtout dans un monde où la technologie évolue à une vitesse fulgurante. L’Arcep, l’autorité française de régulation des communications électroniques et des postes, a décidé d’agir. Elle propose trois priorités pour encourager une éco-conception plus durable. Ces mesures visent à réduire notre empreinte écologique tout en améliorant la durabilité de nos équipements numériques.
A cette fin l’ARCEP a publié une note avec des propositions pour réduit l’obsolescence des logiciels.
L’Arcep a identifié trois priorités essentielles pour promouvoir l’éco-conception et l’étiquetage des équipements électroniques. Ces initiatives visent à intégrer des pratiques durables dès la conception des produits numériques.
Ces propositions sont une réponse proactive face aux défis écologiques contemporains. Elles encouragent un changement fondamental dans notre manière de concevoir et utiliser nos outils technologiques au quotidien.
Thématiques
L’éco-conception est devenue un enjeu crucial dans notre société numérique. La prise de conscience concernant l’impact environnemental des équipements électroniques grandit chaque jour. L’Arcep, en tant qu’autorité régulatrice, joue un rôle clé dans cette transition.
Les thématiques abordées par l’ARCEP touchent à plusieurs aspects essentiels. D’un côté, il y a la durabilité des produits numériques, qui doit être repensée pour éviter une obsolescence rapide et non nécessaire. Une approche proactive peut réduire le gaspillage et prolonger la vie des appareils.
D’autre part, les utilisateurs sont de plus en plus sensibilisés aux choix qu’ils font lors de l’achat d’un équipement électronique. Ils cherchent souvent des informations sur l’étiquetage énergétique afin de faire un choix éclairé. Cela souligne l’importance d’une communication claire sur les caractéristiques écologiques des produits disponibles sur le marché.
Une dimension importante concerne également les politiques publiques élaborées autour de ces enjeux. Elles doivent intégrer davantage le principe d’éco-conception dès la phase de conception jusqu’à celle du recyclage. C’est un changement systémique qui nécessite collaboration entre fabricants et régulateurs.
Ces thématiques soulignent aussi la responsabilité collective face à notre consommation numérique croissante. Le dialogue entre tous les acteurs concernés devient incontournable pour créer un avenir durable pour nos technologies tout en préservant notre planète.
Note sur l’écoconception des produits numériques de l’Arcep
Les produits numériques, tels que les smartphones et ordinateurs, ont un cycle de vie souvent trop court. Cela entraîne non seulement un gaspillage matériel mais également une obsolescence logicielle préoccupante. Il est essentiel d’assurer un support durable pour ces appareils afin de prolonger leur utilisation.
L’ARCEP met donc en avant l’importance d’une évaluation rigoureuse des appareils avant leur mise sur le marché. Les critères écologiques doivent être intégrés dans chaque étape du développement produit. Une démarche proactive permettra d’encourager les fabricants à adopter des pratiques durables.
En outre, l’agence souligne le besoin urgent d’une sensibilisation accrue auprès des consommateurs concernant l’éco-conception et ses bénéfices potentiels. Un public informé sera plus susceptible de privilégier des choix responsables lors de leurs achats.
Il devient indispensable que toutes les parties prenantes collaborent autour d’une vision commune pour garantir la réussite de cette initiative essentielle à notre avenir numérique et écologique.
Atténuer l’obsolescence logicielle des ordinateurs en assurant un support à long terme de leurs systèmes d’exploitation
L’obsolescence logicielle des ordinateurs est un enjeu majeur dans le domaine de l’éco-conception. De nombreux utilisateurs se retrouvent confrontés à des systèmes d’exploitation qui ne reçoivent plus de mises à jour. Cela entraîne non seulement une perte de performance, mais aussi des risques accrus en matière de sécurité.
Pour atténuer ce phénomène, il est essentiel d’assurer un support à long terme pour ces systèmes. Les fabricants devraient s’engager à fournir des mises à jour régulières sur plusieurs années. Cela permettrait aux utilisateurs de prolonger la durée de vie de leurs équipements sans avoir besoin de renouveler leur matériel trop rapidement.
Un soutien durable pourrait également encourager les consommateurs à opter pour des produits réputés pour leur longévité. Ceux-ci pourraient ainsi contribuer à réduire le gaspillage électronique tout en préservant les ressources naturelles nécessaires à la fabrication d’appareils neufs.
De plus, cette approche favoriserait une culture technologique responsable. En rendant les logiciels moins obsolètes, on diminue l’impact environnemental lié aux déchets électroniques et au recyclage difficile des composants informatiques.
Garantir un support logiciel prolongé renforcerait la confiance entre les utilisateurs et les marques. Une relation durable peut inciter davantage d’acheteurs potentiels à choisir des appareils conçus avec soin et souci écologique.
Adopter une approche globale des politiques d’écoconception pour les TIC
L’éco-conception des technologies de l’information et de la communication (TIC) est un enjeu crucial. Adopter une approche globale permet d’intégrer des solutions durables à chaque étape du cycle de vie des produits numériques. Cela commence dès la conception, où il est essentiel de penser à l’impact environnemental.
Les fabricants doivent collaborer avec les développeurs pour créer des dispositifs plus efficaces. Les choix matériels ont un rôle majeur dans la réduction de l’empreinte carbone. Utiliser des matériaux recyclables ou moins polluants peut significativement diminuer les déchets électroniques.
Une autre dimension consiste à sensibiliser les consommateurs aux pratiques durables. Informer sur l’éco-conception aide chacun à faire des choix éclairés lors de leurs achats de matériel numérique. De simples gestes comme le recyclage ou le prolongement de la durée d’utilisation sont bénéfiques.
Les politiques publiques jouent également un rôle clé en incitant les entreprises à innover vers une éco-conception responsable. Des réglementations claires peuvent orienter les investissements vers une production plus respectueuse de l’environnement.
Il faut noter que presque aucun des matériels évoqués ici ne sont produit ni en France ni en Europe.
Il est vital d’impliquer toutes les parties prenantes : industriels, utilisateurs, chercheurs et décideurs politiques. C’est grâce à cette collaboration que nous pourrons développer une vision commune autour d’une écologie durable dans le secteur numérique.
Étendre les exigences d’écoconception et l’étiquetage énergétique à d’autres produits numériques (routeurs, décodeurs)
L’éco-conception est un enjeu majeur dans notre monde numérique en constante évolution. L’Arcep propose d’étendre les exigences d’éco-conception et l’étiquetage énergétique à une gamme plus large de produits numériques, tels que les routeurs et décodeurs. Ces dispositifs jouent un rôle essentiel dans nos vies quotidiennes, mais ils peuvent aussi contribuer significativement à la consommation d’énergie.
En intégrant des critères écologiques dans ces équipements, on peut non seulement réduire leur impact environnemental, mais également informer le consommateur sur leur efficacité énergétique. Une telle initiative favoriserait une prise de conscience collective quant à l’importance de choisir des appareils durables et responsables.
La mise en œuvre de standards clairs pour ces produits permettrait aux utilisateurs de faire des choix éclairés tout en encourageant les fabricants à innover vers des solutions plus respectueuses de l’environnement. En somme, étendre ces exigences pourrait transformer le paysage technologique français en faveur d’une utilisation plus durable et consciente des ressources disponibles.
Sources :
La note de L’ARCEP
Référentiel d’écoconception 2024
Votre pouvoir d’achat baisse alors que les américains s’enrichissent C’est le constat que fait le rapport Draghi sur l’avenir de la compétitivité européenne.
Mario Draghi, est ancien président de la Banque centrale européenne (BCE) et ancien Premier ministre italien.
Il a présenté, ce mois-ci, un rapport sur la compétitivité de l’Union européenne à la Commission européenne. Ce rapport, attendu depuis juin, propose 20 mesures pour redresser la compétitivité de l’Europe face à la concurrence de la Chine et des États-Unis.
Le rapport Draghi pointe les faiblesses de l’Europe en matière d’innovation, de recherche et de développement (R&D), ainsi que la fragmentation des marchés de capitaux et les différences de réglementation entre les États membres.
Si on compare la croissance des PIB entre les blocs, on fait le constat immédiat que post COVID l’Europe ne parvient pas à maintenir son écart avec les USA. Dès 2008 l’Europe perd des points de PIB et de compétitivité. On d’appauvri quand les USA créent de la richesse.
Il souligne également l’écart croissant entre l’Europe et les États-Unis en matière de financement de l’innovation, avec une épargne des ménages de 1 390 milliards d’euros en 2022 contre 840 milliards d’euros aux États-Unis.
Si vous allez en voyage aux USA actuellement la vie va vous paraitre plus chère car notre niveau de Vie européen est déclassé.
Quelques extraits marquants :
« Le désavantage concurrentiel de l’UE va probablement s’accentuer dans le domaine du cloud computing, car le marché se caractérise par des investissements massifs et continus, des économies d’échelle et de multiples services offerts par un seul fournisseur. Cependant, il existe de multiples raisons pour lesquelles l’Europe ne doit pas renoncer à développer son secteur technologique intérieur. Tout d’abord, il est important que les entreprises de l’UE gardent un pied dans les domaines où la souveraineté technologique est nécessaire, tels que la sécurité et le chiffrement (solutions de « cloud souverain »). Deuxièmement, un secteur technologique faible entravera les performances en matière d’innovation dans un large éventail de domaines adjacents, tels que la pharmacie, l’énergie, les matériaux et la défense. Troisièmement, l’IA – et en particulier l’IA générative – est une technologie en évolution dans laquelle les entreprises de l’UE ont encore la possibilité de se tailler une place de premier plan dans des segments sélectionnés »
La différence de croissance se justifient par l’écart d’investissement dans les nouvelles technologies.
« Au cours des deux dernières décennies, les trois premières entreprises américaines en termes de dépenses de recherche et d’innovation (R&I) sont passées de l’industrie automobile et pharmaceutique dans les années 2000 aux entreprises de logiciels et de matériel informatique dans les années 2010, puis au secteur numérique dans les années 2020. En revanche, la structure industrielle de l’Europe est restée inchangée, les entreprises du secteur automobile dominant toujours les trois premiers secteurs dépensiers en matière de R&I. En d’autres termes, l’économie américaine a favorisé l’émergence de nouvelles technologies innovantes et les investissements ont suivi, réorientant les ressources vers des secteurs à fort potentiel de croissance de la productivité ; en Europe, les investissements sont restés concentrés sur des technologies matures et dans des secteurs où les taux de croissance de la productivité des entreprises pionnières ralentissent. »
Ce manque de prise en comptes de l’investissement dans les logiciels et le cloud pénalise toute l’Europe dans les nouveaux domaines de l’intelligence artificielle et de la robotique qui dépendent ce ces technologies pour les composants de base.
La part de marché de l’Europe devient très faible avec 18% du marché des technologies de l’information. Loin derrière les USA à 38%.
Dans le même temps les aides d’Etat son massives en Europe. Mais elles ne sont pas dirigées sur les industries d’avenir.
Pour combler ce déficit d’innovation, le rapport propose 10 mesures clés :
Ce qu’il faut bien retenir c’est que les entreprises européennes sont leaders sur les industries du XX siècle (automobile, industrie lourde) et que la richesse actuellement se créée autour du Cloud, logiciels, robotique, intelligence artificielle. Aucune entreprise européenne n’est présente à coté des Google, Amazon, Meta, Apple. Seule la Chine est en cours de rattraper les USA.
Pour augmenter les difficultés, l’Europe applique une politique climatique sans politique industrielle : l’adoption d’un objectif de zéro émission d’ici 2035 n’a pas donné lieu à une impulsion synchronisée de conversion de la chaîne d’approvisionnement et de transition vers le numérique. Cela a renchéri le prix de l’énergie en pénalisant encore plus une industrie dépendante et pesant sur le pouvoir d’achat de la population.
Pour résumer les principales actions, le nouveau contexte met l’Europe devant un triple impératif :
Sources :
Le grand contient : https://legrandcontinent.eu/fr/2024/09/09/rapport-draghi-6-points-clefs-et-12-graphiques-a-retenir/
Le texte du rapport Draghi sur la compétitivité européenne
The post Votre pouvoir d’achat baisse alors que les américains s’enrichissent first appeared on XY Magazine.Les principales informations à retenir du world robot conférence qui s’est tenu en Chine du 21 au 25 Aout.
La World Robot Conference 2024 a récemment ouvert ses portes, attirant des passionnés de robotique du monde entier. Cet événement phare est devenu un véritable carrefour d’innovation et de découvertes fascinantes. Des robots humanoïdes aux avancées technologiques révolutionnaires, chaque coin de cette conférence regorge d’émerveillement.
Plongez avec nous dans les moments forts de cet événement incontournable pour découvrir ce que l’avenir nous réserve dans le domaine captivant de la robotique.
La World Robot Conference 2024 a rassemblé des milliers de participants, allant des chercheurs aux entrepreneurs. Cet événement international met en lumière l’évolution rapide de la robotique et son impact sur notre quotidien.
Quelques chiffres pour illustrer l’importance de la conférence. 666 Exposants, 812000 visiteurs.
Pour reprendre une terme inventé par Bruno BONNELL (ancien Président de ATARI et actuellement secrétaire général pour l’investissement) en 2010, la robolution est bien arrivée.
Une multitude d’exposants, 666, ont présenté leurs innovations. Des entreprises de renommée mondiale ont dévoilé des robots capables d’accomplir diverses tâches, du service à la personne à l’industrialisation. Ces démonstrations ont captivé le public, montrant comment ces machines peuvent améliorer notre efficacité quotidienne.
Des ateliers interactifs étaient proposés pour stimuler l’engagement du public. Les participants pouvaient ainsi tester eux-mêmes certaines technologies émergentes et comprendre les mécanismes derrière ces avancées fascinantes.
Star des présentations de cette année, les rebots humanoïdes. . Les visiteurs ont été émerveillés par des robots humanoïdes d’une sophistication inouïe. La Chine a su captiver l’attention avec des créations qui semblent tout droit sorties d’un film de science-fiction. Ces robots, dotés de caractéristiques humaines avancées, sont conçus pour interagir naturellement avec les gens
Sur ce point nous avons appris depuis, que cette présentation était un faxe puisque ces robots étaient des femmes déguisées en robot.
L’un des modèles phares a été une réplique presque parfaite d’un être humain. Avec un visage expressif et des mouvements fluides, il était difficile de croire qu’il s’agissait d’une machine. Les concepteurs ont misé sur l’intelligence artificielle pour permettre à ces robots de comprendre et répondre aux émotions humaines.
Les applications potentielles sont vastes : assistance médicale, éducation ou même compagnons virtuels. Chaque démonstration lors du salon a montré comment ces machines peuvent faciliter notre quotidien tout en offrant un aperçu fascinant sur le futur de la robotique.
Parmi les présentations marquantes, un robot capable de tenir une conversation fluide a particulièrement retenu l’attention. Grâce à des algorithmes avancés d’intelligence artificielle, il peut comprendre et répondre aux émotions humaines. Ce type de technologie ouvre la voie à des interactions plus naturelles entre hommes et machines.
Astribot S1 : l’assistant polyvalent
L’Astribot S1, est développé par Stardust Intelligence. Il a impressionné par ses multiples talents. Ce robot assistant humanoïde, présenté pour la première fois en avril 2024, a montré ses compétences en pliage de vêtements et en versant du vin. Application domestiques en vue d’usage pour assister des familles.
Lors de la conférence, l’Astribot S1 a également démontré ses talents en calligraphie. Cette précision et cette délicatesse ont surpris les spectateurs. Le robot se distingue par sa polyvalence et son agilité. Il se place ainsi en tête des assistants humanoïdes.
Wanda : l’aide-ménagère robotisée
Wanda est un robot humanoïde développé par l’entreprise UniX AI. Il vise à faciliter les tâches ménagères. POur faciliter la conception et les déplacements, il est monté sur roues.
Wanda peut réaliser des tâches comme la lessive et la cuisine. Cela en fait une solution pratique pour l’automatisation domestique. Il est spécialisé dans des tâches culinaires et ménagères.
L’industrie de la robotique fait face à plusieurs défis majeurs qui freinent son évolution. Tout d’abord, l’intégration des robots dans des environnements variés reste complexe. Les robots doivent s’adapter et interagir avec leur environnement sans causer de dommages ni perturber les activités humaines.
Ensuite, la question de la sécurité est primordiale. Le développement de systèmes robotiques doit se faire en respectant des normes strictes pour éviter tout accident. La confiance du public envers ces nouvelles technologies dépendra en grande partie de cette sécurité.
Par ailleurs, le coût élevé des technologies robotiques représente un obstacle pour beaucoup d’entreprises, notamment les PME. Leur capacité à investir dans l’innovation est souvent limitée comparée aux grands groupes.
La formation et le développement des compétences sont également cruciaux. Le besoin croissant d’experts en robotique exige une adaptation rapide des programmes éducatifs afin de préparer les nouvelles générations aux exigences du marché.
Il y a le défi éthique lié à l’utilisation croissante des robots dans divers secteurs. Il sera essentiel d’encadrer leur emploi pour garantir que les bénéfices soient partagés équitablement au sein de la société.
The podcast currently has 128 episodes available.