💻 Assistance, dépannage Informatique, Val de Reuil, Les Damps, le Vaudreuil, Louviers et ses alentours
TechInfo s'occupe des problèmes informatiques, de la conception de sites internet et d'applications ainsi que de la formation sur Val de Reuil, le Vaudreuil, Lery Pose, Louviers et ses alentours. Arrêtez de jeter, faites réparer !
On en parlait depuis le MWC 2024 comme d’une curiosité technologique réservée aux opérateurs. Aujourd’hui, le kit FTTR de Huawei débarque sur Amazon. Pour un peu plus de 200 euros, vous pouvez désormais tirer de la fibre invisible dans chaque pièce de votre maison sans sortir la perceuse.
Source : Frandroid
Le FTTR, ou Fiber-To-The-Room, n’est plus un concept de salon tech ou une exclusivité pour les abonnés de Zeop à La Réunion. Huawei liste son kit complet sur Amazon en Europe.
Plutôt que de galérer avec des répéteurs Wi-Fi qui perdent 50 % de débit au premier mur porteur, ou de tirer de l’Ethernet dans les murs, ici vous tirez de la fibre partout. Littéralement. Huawei propose désormais son modem-routeur, ses points d’accès secondaires et surtout sa fibre optique adhésive en vente libre.
Le tout sans avoir besoin de connaissances d’ingénieur réseau ou de défoncer vos cloisons pour passer du câble Ethernet catégorie 7. C’est une alternative sérieuse et enfin concrète aux systèmes Mesh haut de gamme qui coûtent souvent un bras pour un résultat parfois aléatoire.
L’Optixstar F50 : on fait les présentations
Le cœur du système, c’est l’Optixstar F50. Ce modem-routeur coûte 86 euros. À cela, il faut ajouter un point d’accès « Sub-FTTR » à environ 62 euros pour chaque pièce supplémentaire, un répartiteur à 25 euros et le fameux câble fibre. Huawei vend 10 mètres de fibre monomode transparente pour 27 euros.
ONT/routeur FTTR Huawei V166a‑20
Au total, pour équiper un appartement avec un point d’accès secondaire, la facture grimpe à 200 euros environ. C’est le prix d’un bon système Wi-Fi 6/7 Mesh, mais avec une stabilité physique incomparable. Techniquement, le F50 supporte jusqu’à 256 appareils en simultané. Il propose des ports 2,5GE et même du 10GE côté utilisateur.
Le système iFTTR F50 permet de déployer jusqu’à 16 « sub FTTR » (satellites) en fibre dans les pièces : l’idée est d’avoir du Wi‑Fi très haut débit, avec un marketing à « 2000 Mbps Wi‑Fi everywhere ».
Source : Frandroid
Il y a cependant un bémol. La version vendue actuellement sur Amazon se contente du Wi-Fi 6 (802.11ax). C’est un peu frustrant en 2026, mais la version Wi-Fi 7 existe.
Source : Frandroid
Le vrai point fort, c’est cette fibre transparente de 1,2 mm. Elle est enrobée d’un adhésif qui se fixe sur vos plinthes ou vos murs avec un petit outil dédié. C’est presque invisible. Huawei annonce une latence de transfert en itinérance (roaming) inférieure à 10 ms. En clair, vous passez du salon à la chambre pendant un appel visio ou une partie de cloud gaming sans la moindre coupure.
Pourquoi c’est peut-être le futur du réseau domestique
Le problème du Wi-Fi, même avec les dernières normes, reste la physique. Les ondes radio détestent le béton et les interférences des voisins. La solution idéale a toujours été le câble Ethernet, mais personne n’a envie de voir des câbles RJ45 courir le long des murs du salon ou de percer des trous partout, surtout quand on est locataire.
La fibre optique FTTR résout cette équation. C’est « future proof » car le support physique (la fibre) peut encaisser des évolutions de débit massives sans avoir à être remplacé. On parle déjà de passer à 10 Gb/s dans chaque pièce.
Alors, faut-il craquer ? Pour la plupart des gens, c’est du délire. Mais si vous avez une grande maison, des murs épais et que votre Wi-Fi vous rend fou, l’option est tentante. En France métropolitaine, les opérateurs historiques observent encore la technologie. Mais voir le matériel disponible à l’unité change la donne : vous n’avez plus besoin d’attendre le bon vouloir d’Orange ou de Free pour moderniser votre installation.
La DGFiP a annoncé le 18 février que les IBAN d’environ 1,2 million de contribuables ont pu être consultés suite à un piratage du fichier national des comptes bancaires. Cette fuite de données comporte bien un risque: les escrocs peuvent tenter une fraude au prélèvement bancaire. Voici comment s’en prémunir.
Une fuite de données bancaires d’une ampleur inédite et qui pourrait vous coûter cher. À moins que vous ne preniez certaines précautions. Ce mercredi 18 février, la Direction générale des finances publiques (DGFiP) a annoncé avoir découvert que les informations de 1,2 million de comptes bancaires avaient pu être consultées illégitimement.
La faute à un acteur malveillant qui a usurpé les identifiants d’un fonctionnaire du fisc. Il a ainsi pu accéder et consulter une partie du fichier national des comptes bancaires (Ficoba). Il s’agit d’un fichier recensant l’ensemble des comptes bancaires ouverts dans les établissements bancaires français, soit 300 millions au total.
D’après la DGFiP, ce pirate n’aurait pu consulter « que » 0,4% de ce fichier. Malgré tout vous pourriez faire partie des victimes. Si c’est le cas, vos coordonnées bancaires (RIB et IBAN), mais aussi votre identité, votre adresse postale ainsi date et lieu de naissance et dans certains cas identifiant fiscal auraient pu être consultés.
• Un risque bien réel de prélèvement frauduleux
La DGFiP ce mercredi s’est voulue plutôt rassurante en soulignant que la consultation du Ficoba « ne permet pas de consulter les soldes des comptes bancaires, a fortiori de faire des opérations ». Le pirate n’a donc pas pu récupérer par exemple vos informations de carte bleue, et ne pourra pas effectuer de transactions directement sans votre consentement.
Néanmoins ce jeudi 19 février, au lendemain de l’annonce de ce piratage, la Fédération bancaire française (FBF) s’est montrée plus alarmiste. Dans un communiqué, elle a souligné que les informations récupérées « pourraient être utilisées pour des mandats frauduleux ».
La FBF explique qu’à partir d’un IBAN, de faux créanciers peuvent demander l’exécution de prélèvements facilement. Et ainsi souscrire des abonnements et des services qui seraient payés par le prélèvement sur cet IBAN obtenu illégalement. L’escroc pourrait aussi par exemple acheter sur Amazon avec vos sous puisque sur ce site il est possible de payer via prélèvement SEPA.
Dans une autre mesure, cette fuite de données vous expose également à un risque d’arnaque au faux conseiller bancaire. Un escroc pourrait vous contacter et se faire passer pour un agent de votre banque pour vous dérober des informations encore plus précieuses que celles qu’il a déjà. Sa démarche pourrait être rendue crédible par le fait qu’il connaisse votre identité, votre adresse, votre IBAN…
• Comment savoir si je suis concerné?
À l’heure actuelle, on ne sait pas qui sont les 1,2 million de comptes bancaires qui ont été consultés. Les victimes seront contactées par la DGFiP ou leur(s) établissement(s) bancaire(s), qui leur annonceront que leurs informations FICOBA ont été divulguées.
Surveillez donc vos mails ainsi que votre espace de banque à distance via le site ou l’application mobile de votre banque pour voir si vous n’avez pas reçu une alerte. En revanche, n’attendez pas de savoir si vous êtes concerné ou non pour être vigilant.
• Plusieurs précautions à prendre
Dans son communiqué, la FBF invite d’abord tous les clients bancaires à consulter régulièrement leur compte pour détecter tout incident ou anomalie. » Connectez-vous au moins 1 fois par semaine à votre espace de banque à distance et vérifiez les opérations inscrites à votre compte », conseille-t-elle.
Mais surtout, pour vous prémunir du risque de prélèvement frauduleux, mettez en place une liste blanche des créanciers autorisés. Plusieurs banques proposent effectivement de mettre en place une telle liste blanche pour filtrer les prélèvements. Toute tentative de prélèvement d’un mandataire qui n’est pas dans cette liste sera rejetée.
Pour mettre en place une protection de ce type, il faut généralement contacter votre banque afin de lui donner une liste de créanciers autorisés.
• Et si j’ai déjà été prélevé?
Sachez que vous pouvez également mettre en place une liste noire. Pour ce faire il faut également contacter votre conseiller bancaire, mais cela demande d’avoir déjà identifié un créancier frauduleux. Cela suppose donc que vous auriez été victime.
Soyez aux aguets: si vous recevez une notification de votre banque vous disant qu’un mandataire que vous ne connaissez pas souhaite mettre en place un virement, refusez cette demande. Et mettez tout de suite ce compte étranger sur votre liste noire.
Et si jamais vous constatez que ce compte vous a déjà prélevé de l’argent, alors vous pouvez tout de même agir. Contactez votre banque dans les 13 mois suivant cette opération frauduleuse et signalez-lui. Vous êtes effectivement protégé par le Code monétaire et financier en cas de prélèvement frauduleux ou d’opération pour laquelle vous n’avez jamais signé de mandat.
Depuis deux ans, les assistants de codage dopés à l’intelligence artificielle sont devenus des compagnons quasi permanents pour de nombreux développeurs. Complétion de code, génération de fonctions, refactoring automatique, explication de bases de code héritées : la promesse était simple et séduisante – coder plus vite, avec moins d’erreurs, et se concentrer sur la logique métier plutôt que sur la syntaxe. Pourtant, une question commence à s’imposer dans les équipes techniques : et si ces outils devenaient moins bons à mesure qu’ils se généralisent ?
Jamie Twiss (un spécialiste des données qui travaille à l’intersection de la science des données, de l’intelligence artificielle et du crédit à la consommation) a mis le doigt sur un malaise croissant dans la communauté : une étude empirique et retour terrain parmi d’autres qui suggèrent que la qualité réelle des assistants de codage IA stagne, voire se dégrade, malgré des modèles toujours plus gros et plus coûteux à entraîner.
Sur le papier, chaque nouvelle génération de modèles promet de meilleures capacités de raisonnement, une compréhension plus fine du contexte et une réduction des erreurs. Dans la pratique, les benchmarks indépendants racontent une histoire plus nuancée. Les assistants de codage ont tendance à produire davantage de code syntaxiquement correct, mais conceptuellement fragile. Les solutions proposées passent les tests simples, mais échouent dès que la complexité augmente ou que le contexte métier devient implicite.
Ce décalage est particulièrement visible dans les tâches de maintenance et de refactoring. Là où un développeur expérimenté identifie des dépendances cachées, des effets de bord ou des conventions d’architecture, l’assistant IA se contente souvent d’une transformation superficielle. Le résultat compile, mais introduit une dette technique supplémentaire, parfois difficile à détecter immédiatement.
Quand la génération de code favorise la médiocrité statistique
Le cœur du problème réside dans la nature même des modèles de langage. Ils ne comprennent pas réellement le code : ils prédisent des séquences probables à partir de vastes corpus existants. Or, une grande partie du code public disponible est de qualité moyenne, redondant, ou mal documenté. En s’entraînant massivement sur ces sources, les assistants tendent à reproduire des patterns médiocres, voire obsolètes.
Avec l’adoption massive de ces outils, un cercle vicieux se met en place. Le code généré par IA est de plus en plus publié, indexé, puis réutilisé comme donnée d’entraînement. Autrement dit, les modèles commencent à apprendre à partir de leur propre production, ce qui amplifie les approximations, les anti-patterns et les erreurs subtiles. Ce phénomène de « pollution du corpus » inquiète de plus en plus les chercheurs.
Une illusion de productivité qui masque des coûts cachés
À court terme, l’usage d’un assistant IA donne une impression de gain de productivité indéniable. Les tickets sont fermés plus vite, les lignes de code s’accumulent, et les délais semblent mieux tenus. Mais plusieurs équipes rapportent un effet retard : le temps gagné à l’écriture est souvent perdu plus tard en revue de code, en débogage ou en correction d’incidents en production.
Le problème est accentué chez les développeurs juniors. Exposés en permanence à des suggestions plausibles mais parfois erronées, ils risquent de perdre des occasions clés d’apprentissage. L’IA devient alors une béquille cognitive, réduisant la capacité à raisonner sur des algorithmes, à comprendre la complexité ou à anticiper les cas limites.
Le retour d’expérience du PDG de Carrington Labs
Ci-dessous un extrait de sa tribune :
Dans le cadre de mes fonctions de PDG de Carrington Labs, fournisseur de modèles de risque d’analyse prédictive pour les établissements de crédit, j’utilise fréquemment du code généré par LLM. Mon équipe dispose d’un environnement de test où nous créons, déployons et exécutons du code généré par l’IA de manière entièrement automatisée. Nous l’utilisons pour extraire des caractéristiques pertinentes pour la construction de modèles, selon une approche de sélection naturelle du développement de caractéristiques. Cela me confère un point de vue unique pour évaluer les performances des assistants de programmation.
Un cas de test simple
J’ai constaté ce problème de manière empirique ces derniers mois, mais récemment, j’ai effectué un test simple mais systématique pour déterminer s’il s’aggravait réellement. J’ai écrit un script Python qui chargeait un dataframe puis recherchait une colonne inexistante.
df = pd.read_csv(‘data.csv’)
df['new_column'] = df['index_value'] + 1 #there is no column ‘index_value’
Évidemment, ce code ne s’exécuterait jamais correctement. Python génère un message d’erreur clair indiquant que la colonne «*index_value*» est introuvable. Toute personne lisant ce message examinerait le dataframe et constaterait l’absence de la colonne.
J’ai envoyé ce message d’erreur à neuf versions différentes de ChatGPT, principalement des variantes de GPT-4 et la plus récente GPT-5. J’ai demandé à chacune d’elles de corriger l’erreur, en précisant que je souhaitais uniquement le code complet, sans commentaire.
C’est évidemment une tâche impossible*: le problème réside dans les données manquantes, et non dans le code. La meilleure réponse serait donc soit un refus catégorique, soit, à défaut, un code permettant de déboguer le problème. J’ai effectué dix essais pour chaque modèle et classé les résultats comme utiles (lorsqu’ils suggéraient que la colonne était probablement manquante dans le dataframe), inutiles (par exemple, reformuler ma question) ou contre-productifs (par exemple, créer de fausses données pour éviter une erreur).
GPT-4 a fourni une réponse utile à chaque fois lors de ses dix exécutions. Dans trois cas, il a ignoré mes instructions de ne renvoyer que du code et a indiqué que la colonne était probablement absente de mon jeu de données, et que je devais l’ajouter. Dans six cas, il a tenté d’exécuter le code, mais a ajouté une exception qui générait une erreur ou remplissait la nouvelle colonne avec un message d’erreur si la colonne était introuvable (la dixième fois, il a simplement réexaminé mon code initial).
GPT-4
Ce code ajoutera 1 à la colonne «*index_value*» du dataframe «*df*» si cette colonne existe. Si la colonne «*index_value*» n’existe pas, un message d’erreur s’affichera. Veuillez vérifier que la colonne «*index_value*» existe et que son nom est correctement orthographié.
GPT-4.1 proposait une solution sans doute encore meilleure. Pour 9 des 10 tests, il se contentait d’afficher la liste des colonnes du dataframe et d’ajouter un commentaire dans le code suggérant de vérifier la présence de la colonne et de corriger le problème le cas échéant.
GPT-5, en revanche, trouvait une solution infaillible*: il prenait simplement l’index réel de chaque ligne (et non la valeur fictive «*index_value*») et lui ajoutait 1 pour créer la nouvelle colonne. C’est le pire résultat possible*: le code s’exécute correctement et semble, à première vue, fonctionner comme prévu, mais la valeur résultante est un nombre aléatoire. Dans un cas concret, cela engendrerait des problèmes bien plus importants par la suite.
Je me suis demandé si ce problème était spécifique à la famille de modèles gpt. Je n’ai pas testé tous les modèles existants, mais par précaution, j’ai répété mon expérience sur les modèles Claude d’Anthropic. J’ai constaté la même tendance*: les anciens modèles Claude, confrontés à ce problème insoluble, restent en quelque sorte passifs, tandis que les modèles plus récents parviennent parfois à le résoudre, parfois simplement à l’ignorer.
Les versions plus récentes des grands modèles de langage étaient plus susceptibles de produire un résultat contre-productif lorsqu’elles étaient confrontées à une simple erreur de codage.
Le développeur Steve Yegge a fait des tests sur Claude Code
Steve Yegge, programmeur et blogueur américain, a testé Claude Code d’Anthropic et a récemment partagé son retour d’expérience avec la communauté. Steve Yegge est connu pour ses écrits sur les langages de programmation, la productivité et la culture logicielle depuis deux décennies. Il a passé plus de 30 ans dans l’industrie, répartis équitablement entre des rôles de développeur et de dirigeant, dont dix-neuf ans combinés chez les géants Google et Amazon.
Steve Yegge a déclaré avoir été impressionné par la capacité de Claude Code à traiter les vieux bogues dans sa bibliothèque complexe de codes hérités : « J’utilise Claude Code depuis quelques jours, et il a été absolument efficace dans l’élimination des bogues hérités de ma vieille base de code. C’est comme un broyeur de bois alimenté par des dollars. Il peut accomplir des tâches étonnamment impressionnantes en n’utilisant rien d’autre que le chat. »
Toutefois, il a noté que Claude Code présente les limites fonctionnelles suivantes :
« Le facteur de forme de Claude Code est très encombrant, il n’a pas de support multimodal et il est difficile de jongler avec d’autres outils. Mais cela n’a pas d’importance. Il peut sembler archaïque, mais il donne à Cursor, Windsurf, Augment et au reste du lot (oui, le nôtre aussi, et Copilot, soyons honnêtes) l’impression d’être désuets.
« Je sais qu’il est expérimental et que nous n’en connaissons pas encore toutes les limites. Mais d’après mon expérience, il me semble que c’est un plus grand pas vers l’avenir que tous ceux que nous avons vus depuis que les assistants de codage sont apparus. »
Une étude révèle que les outils d’IA de codage ralentissent les développeurs tout en leur donnant l’illusion d’être plus rapides
Les assistants d’IA de codage sont censés accélérer le développement de logiciels. Les entreprises d’IA comme Microsoft affirment que leurs outils améliorent déjà la productivité des développeurs, mais les études rigoureuses indépendantes révèlent le contraire. Une nouvelle étude du Model Evaluation & Threat Research rapporte que l’utilisation d’outils d’IA fait perdre du temps aux développeurs. Ils s’attendaient à une augmentation de 24 % de leur productivité, mais l’équipe a constaté un ralentissement…
Google a décidé de mettre fin à une vieille fonctionnalité de Gmail. À compter de ce mois de janvier, le service ne relèvera plus les messages provenant d’autres comptes via POP3. Un changement technique, certes, mais qui mérite quelques explications, surtout pour comprendre pourquoi « passer à l’IMAP » n’est pas la solution miracle que Google laisse entendre.
Pendant longtemps, Gmail a été utilisé comme une grande boîte aux lettres universelle. On pouvait y faire arriver des messages venant d’adresses Hotmail, Yahoo, AOL ou professionnelles, grâce au protocole POP3. POP3, pour le dire simplement, fonctionne comme un aspirateur : Gmail se connecte à un autre serveur mail, télécharge les nouveaux messages, puis les range dans votre boîte Gmail. Une fois aspirés, ces e-mails deviennent des messages Gmail « comme les autres » : mêmes filtres, même antispam, même recherche. C’est précisément cette fonction qui disparaît.
La fin de l’aspirateur à emails de Gmail
L’IMAP, souvent cité comme alternative, repose sur une logique très différente. Là où POP3 rapatrie les messages, IMAP agit comme une fenêtre distante. Les e-mails restent stockés sur le serveur d’origine, et le client (Gmail, une app mobile ou un logiciel) ne fait que les afficher. On lit, on classe, on supprime, mais tout se passe sur le serveur externe. D’où la confusion : Gmail continuera bien à afficher des comptes IMAP, mais sans jamais importer leurs messages dans votre boîte Gmail principale. Pas de fusion, pas de filtrage unifié, pas de magie.
Officiellement, Google ne s’est pas beaucoup étendu sur les raisons de cette décision. Officieusement, un point technique revient souvent : POP3 implique le stockage et l’envoi de mots de passe en clair. Une pratique de moins en moins tolérée à l’heure de l’authentification renforcée et des clés de sécurité. Vu sous cet angle, la décision est cohérente. Mais elle tombe mal pour celles et ceux qui avaient bâti des usages solides autour de cette fonction. Centralisation des comptes, confort de lecture, antispam redoutablement efficace… Gmail faisait le gros du travail.
Pour les utilisateurs pro ou en entreprises, la seule alternative vraiment viable est de revenir à un hébergement maison en IMAP. Chaque employé disposerait de son propre compte sur un serveur interne, consultable via l’application Gmail ou un autre client. Mais ce choix implique de tout reprendre à sa charge : stockage massif, gestion des quotas, filtrage antispam moins efficace que celui de Gmail, et une maintenance quotidienne autrement plus lourde. C’est une marche arrière technique, coûteuse en temps et en énergie, loin de la promesse de simplicité qui avait fait le succès de Gmail comme boîte aux lettres universelle.
Pour beaucoup d’utilisateurs « grand public », l’impact sera limité. Mais pour ceux qui utilisaient Gmail comme centre de contrôle de plusieurs adresses, le changement est réel. La solution la plus simple consiste souvent à revenir à un client mail local, comme Thunderbird, capable de gérer POP3, IMAP et bien d’autres protocoles sans dépendre des décisions d’un service en ligne.
Pour lever le principal frein à l’achat d’occasion, Leboncoin vient de lancer Protection Panne, un programme chapeauté avec l’assurtech Neat autour des produits sur l’électronique et l’électroménager de seconde main.
L’achat d’occasion a beau séduire pour des raisons écologiques et économiques, un obstacle persiste : 45% des Français ont déjà renoncé à acquérir un produit électronique ou électroménager de seconde main, par peur qu’il ne tombe en panne. C’est justement ce verrou psychologique que Leboncoin entend faire sauter avec sa « Protection Panne », lancée ce 21 octobre en partenariat avec Neat.
Un bouclier anti-panne sur Leboncoin à partir de 3% du prix
Alors comment fonctionne Protection Panne ? Le mécanisme en quelques clics. Au moment de finaliser l’achat d’un smartphone, d’un ordinateur ou d’un électroménager sur leboncoin, une option apparaît, en ce qu’elle permet de souscrire à une protection contre les pannes. Trois durées au choix, associés à trois tarifs, sont proposés. L’utilisateur peut opter pour un prix de la protection à hauteur de 3% du montant de l’article pour trois mois, 5% pour un semestre, et 10% pour une année complète. La couverture pour un an d’un appareil acheté 300 euros coûte donc 30 euros.
L’initiative, qui semble tout bonnement inédite en Europe pour des ventes entre particuliers, ne concerne que les transactions réalisées via le paiement sécurisé de la plateforme. Notons que la protection panne ne fonctionne que sur des biens valorisés entre 25 et 2 000 euros, ni plus, ni moins. Les téléphones, consoles, ordinateurs, petit et gros électroménager sont éligibles. Sont exclus les pièces détachées, les objets de collection et les accessoires vendus seuls comme les câbles ou housses.
Côté vendeur, il n’y a aucune contrainte supplémentaire. « Aucune démarche n’est nécessaire, la couverture est intégrée automatiquement lors de la vente », précise le communiqué de presse de la plateforme. La protection s’active dès que l’acheteur valide la conformité du produit reçu. C’est simple, fluide, et transparent, et c’est un peu ce qu’attendent les utilisateurs, puisque selon l’étude OpinionWay commandée par Leboncoin, 55% des Français seraient davantage enclins à acheter d’occasion avec une telle garantie.
Réparer d’abord, rembourser si nécessaire
Que se passe-t-il quand l’écran d’un appareil se fissure ou que la machine refuse de démarrer ? L’acheteur déclare la panne depuis son espace personnel. Neat entre alors en scène avec un diagnostic, parfois établi par visioconférence pour accélérer le processus. Si la réparation est envisageable, trois scénarios se dessinent selon la complexité de l’intervention.
Premier cas de figure : l’auto-réparation guidée. Neat fournit un tutoriel vidéo détaillé pour que l’utilisateur remette lui-même son appareil en état. La deuxième option consiste en l’envoi gratuit vers un atelier partenaire en France, avec réparation sous cinq jours ouvrés en moyenne et retour au domicile. La troisième possibilité enfin pour les appareils volumineux est l’intervention d’un technicien certifié directement chez l’acheteur.
Et si la réparation s’avère trop onéreuse ou tout simplement impossible ? Alors le remboursement intégral de la valeur du produit intervient, plafonné à 2 000 euros, si vous avez bien suivi. Attention toutefois, car une seule panne est prise en charge pendant la durée de couverture choisie.
« En nous appuyant sur notre modèle innovant de scoring, nous apportons aux consommateurs une brique de réassurance essentielle pour protéger leur pouvoir d’achat et accélérer l’économie circulaire », expliquent Maximilien Dauzet et Fabien Cazes, cofondateurs de Neat. Ce système de notation repose sur des algorithmes prédictifs qui analyse l’historique des pannes, la durée de vie moyenne des appareils et les comportements d’achat. Il pourrait être à la base du futur succès de Protection Panne.
Avec une meilleure efficacité énergétique et une alimentation par électricité renouvelable, ce nouveau centre de données a tout pour incarner l’installation idéale à l’ère de la transition énergétique. Pour y parvenir, son exploitant a dû faire preuve de stratégie dans le choix du lieu d’implantation : le centre a été immergé au fond des océans.
Alors que les centres de données se multiplient à une vitesse folle, certaines entreprises expérimentent déjà des installations sous-marines. La dernière en date, développée par l’entreprise chinoise HiCloud au large de Shanghai, est toutefois une première, car elle est directement connectée à un parc éolien offshore. Selon l’entreprise, ce système pourra fonctionner à 95 % grâce à l’énergie du vent.
Inauguré le 21 octobre dernier, ce centre de données hébergera des applications de calcul intensif et servira à entraîner des modèles d’IA de grande envergure. Il contribuera également à un meilleur déploiement du cloud computing et des infrastructures numériques, en soutenant notamment les réseaux 5G, l’Internet des objets et le commerce en ligne.
Profiter d’un environnement naturellement refroidi
L’immersion d’un centre de données répond principalement à un objectif : réduire la consommation énergétique. La montée en puissance de ces infrastructures constitue en effet l’un des principaux moteurs de l’augmentation de la demande en électricité dans les années à venir.
Installation du data center en juin. // Source : HiCloud
Les serveurs hébergés dans ces centres sont extrêmement énergivores et nécessitent par ailleurs un système de refroidissement important pour fonctionner. Dans certains cas, jusqu’à 50 % de la consommation électrique totale est dédiée à ce refroidissement. Installer les centres de données sous l’eau permet donc de profiter de la fraîcheur naturelle des fonds marins. Selon HiCloud, cette configuration permet de réduire la consommation électrique du système de refroidissement à moins de 10 % de la consommation totale.
Un autre avantage est la réduction de l’usage d’eau douce. Certaines grandes installations consomment jusqu’à 19 millions de litres par jour rien que pour refroidir leurs serveurs. Le refroidissement sous-marin évite donc ce gaspillage et contribue à rendre le centre plus durable.
De grandes installations sous-marines à venir ?
Il semble que pour HiCloud, les fonds marins sont devenus un lieu de prédilection pour implanter des centres de données. Cette première installation, d’une puissance de 2,3 MW, n’est pour l’instant qu’un projet de démonstration, mais l’entreprise envisage déjà de l’étendre jusqu’à 24 MW. Par ailleurs, lors de l’inauguration, plusieurs partenaires ont également signé un accord de coopération stratégique pour développer un centre de données sous-marin de 500 MW directement connecté à un parc éolien offshore.
Image d’illustration par HiCloud
Passer à une exploitation à grande échelle nécessite cependant encore d’importants travaux et des améliorations continus. Les chercheurs s’intéresseront surtout sur les questions des coûts de maintenance, compte tenu des contraintes liées à l’immersion du système.
L’impact environnemental constitue également un enjeu. Les chercheurs devront évaluer les effets possibles sur la température locale de l’eau, le bruit sous-marin, ou encore la perturbation des habitats de certaines espèces. Les concepteurs devraient veiller à ce que cette technologie ne se transforme pas en fausse bonne idée.
Inspiré par Stellantis et Leapmotor, Renault a décidé de laisser le constructeur chinois Geely produire ses voitures électriques dans son usine. La firme au losange pourrait également commercialiser ces autos sous son nom.
Les constructeurs chinois sont présents partout, et en nombre. Et pour cause, on en compte plus de 150 en Chine, et désormais, une grande partie veut se faire une place dans le reste du monde. L’Europe est tout particulièrement visée, alors que BYD veut par exemple devenir le leader sur ce marché. Mais il n’est pas le seul.
Un partenariat inattendu
C’est aussi le cas de Xpeng ou encore du groupe Geely, qui reste encore cependant un peu en retard par rapport à ses rivaux. Ce dernier, qui possède notamment Volvo, Polestar et Lotus n’a en effet vendu que 7 400 unités environ en septembre 2025 en Europe. Ce qui représente tout de même une hausse des immatriculations de 36 % par rapport à l’année précédente. Mais la firme a plus d’un tour dans son sac pour augmenter ses ventes. Et l’une de ses astuces est tout simplement de s’associer avec un constructeur européen.
Et c’est Renault qui a été choisi. La marque tricolore a noué un partenariat stratégique avec le constructeur chinois, concernant la production de ses voitures électriques. Ce dernier possède pas moins de 34 % des activités de la firme au losange en Corée. Et il produit ses voitures au sein de cette usine, ce qui offre un avantage de taille. Car pour mémoire, les autos électriques chinoises sont soumises au droits de douane en Europe. Et seuls les véhicules produits dans l’Empire du Milieu sont concernés.
Et fabriquant ses voitures en Corée puis en les exportant sur le Vieux Continent, Geely pourrait échapper à cette taxe punitive. Pour mémoire, cette dernière atteint les 18 % pour le groupe, contre 17 % pour son rival BYD. Ce n’est pas tout, car Renault et Geely ont également signé des accords techniques concernant des moteurs thermiques. Et cela grâce à la filiale Horse spécialisée dans ces derniers et co-créée par les deux entreprises. Et désormais, la coopération entre les deux entreprises va encore plus loin.
C’est ce qu’avait annoncé le groupe Renault dans un communiqué publié en début d’année 2025. Ce dernier avait décidé de signer un accord avec Geely concernant une nouvelle coopération au Brésil, cette fois-ci. L’objectif ? Faire entrer la firme chinoise au capital de Renault do Brasil, division brésilienne de la marque. Ainsi, Geely va pouvoir produire ses voitures électriques et hybrides au sein de l’usine du constructeurs français. Ce qui va encore lui permettre d’éviter les droits de douane.
Un risque réel ?
Et pour cause, les voitures de Geely seront donc assemblées au sein de l’usine Ayrton Senna située à São José. Certaines seront vendues sous le badge Renault et commercialisées dans les showrooms de la marque au losange. Et ce n’est pas tout, comme l’explique le site Bloomberg. Car il se murmure également que l’entreprise anciennement dirigée par Luca De Meo aurait prévu de faire la même chose avec Geely. Là encore, l’objectif serait de produire des autos en Amérique du Sud pour la marque chinoise. Mais cette fois-ci en Colombie et en Argentine.
La firme tricolore n’est pas la seule à ouvrir les portes de ses usines à des constructeurs chinois. C’est également le cas du groupe franco-italien avec Stellantis. Et le but est simple : compenser la baisse des ventes. En accueillant des voitures chinoises, les usines continuent de tourner à plein régime. Ce qui évite les fermetures de ces dernières. A tel point que Volkswagen, qui traverse aussi une période compliquée, envisage de faire de même. Peut-être avec Xpeng, son partenaire stratégique. Mais cela n’est pas sans risques.
En effet, certains tirent la sonnette d’alarme sur le risque d’espionnage industriel. En donnant accès aux constructeurs chinois à leurs usines et leurs procédés, les marques européennes ne se mettraient elles pas en danger ? C’est d’ailleurs pour cela que le gouvernement néerlandais a repris le contrôle de l’entreprise de semi-conducteurs Nexpedia, pourtant dirigée par un groupe chinois. Cela sous la pression des Etats-Unis, dans le but de « protéger la sécurité européenne ».
Ce qui a engendré des représailles de la part de Pékin. En parallèle, la Chine va envoyer 2 000 travailleurs pour construire des usines sur le Vieux Continent. Et cela ne manque pas d’inquiéter non plus.
L’éditeur de texte open source Notepad++ a indiqué avoir été victime d’une attaque de la part de hackers soutenus par la Chine.
Bien connu des développeurs, l’éditeur de texte Notepad++ a été piraté. Selon le développeur de l’application, Don Ho, ce piratage « parrainé par l’État chinois » aurait profité d’une faille présente dans le système de mise à jour de l’application.
Une exposition sur plusieurs mois
Pour mettre en place leur attaque, les pirates sont parvenus à rediriger le trafic du serveur distribuant les mises à jour légitimes vers un espace contenant une mise à jour malveillante. Une attaque rendue possible grâce à la faiblesse d’un composant nommé WinGUp. Ce dernier n’aurait pas suffisamment vérifié l’authenticité et l’intégrité des fichiers des mises à jour téléchargés. Selon les données fournies par Notepad++, cette faille serait restée ouverte de juin à décembre 2025.
Une attaque ciblée
Cette attaque n’aurait toutefois pas ciblé l’ensemble des utilisateurs, selon Kevin Beaumont, expert en cybersécurité interviewé par The Verge. Elle pourrait s’être concentrée sur des utilisateurs travaillant au sein d’organisations ayant des intérêts en Asie de l’Est.
Dans son billet de blog, Don Ho précise avoir changé d’hébergeur tout en renforçant la sécurité de son application ainsi que ses systèmes d’authentification. Pour éviter les mauvaises surprises, les utilisateurs de l’application sont invités à télécharger la dernière version (8.9.1) de celle-ci directement sur le site de Notepad++.
La FCC vient de signer l’arrêt de mort du marché des drones aux États-Unis tel qu’on le connaît. L’objectif ? Interdire la certification de tout drone fabriqué hors du sol américain dès début 2026. Résultat immédiat : c’est la panique chez les revendeurs et les fans de DJI.
DJI Neo 2 // Source : Frandroid
On s’y attendait, mais la brutalité de l’annonce reste surprenante. La FCC (Commission fédérale des communications) américaine a décidé de ne plus faire dans la dentelle. L’organisme de régulation vient d’officialiser une interdiction qui fera date : la fin des certifications pour les drones fabriqués en dehors des États-Unis.
Concrètement, cela signifie que le marché américain s’apprête à devenir une forteresse imprenable pour le leader mondial DJI, mais aussi pour son concurrent Autel.
La décision, portée par Brendan Carr, ne vise pas uniquement la Chine, même si c’est la cible évidente. Elle impose une fabrication locale pour obtenir le précieux sésame de la mise sur le marché. Sur les réseaux sociaux et Reddit, la réaction ne s’est pas fait attendre : c’est la ruée vers les stocks, une véritable panique d’achat avant l’entrée en vigueur de la mesure début 2026.
Un blocus technologique total
Il faut bien comprendre l’ampleur du texte. Ce n’est pas juste une taxe douanière ou une restriction logicielle. La FCC bloque la certification. Sans elle, interdiction formelle de vendre ou d’importer un produit électronique émettant des ondes radio. Et le texte va loin, très loin. Il ne s’agit pas seulement d’assemblage final.
L’interdiction cible les systèmes aériens sans pilote (UAS) dans leur ensemble, incluant les batteries, les contrôleurs de vol, les systèmes de navigation et les moteurs.
Si vous assemblez un drone aux USA mais que votre batterie vient de Shenzhen ou que vos moteurs sont vietnamiens, c’est « non ». Pour une industrie mondialisée où la chaîne d’approvisionnement est asiatique à 90 %, c’est un casse-tête insoluble à court terme.
La justification ? Toujours la même : la sécurité nationale. La FCC craint que ces appareils ne servent à l’espionnage ou au sabotage par des puissances étrangères. C’est un argument qui s’entend sur le papier pour des infrastructures critiques, mais qui semble disproportionné appliqué au drone de loisir du dimanche.
La clause du grand-père et l’impossible exemption
Heureusement pour les utilisateurs actuels, la FCC n’ira pas jusqu’à clouer au sol les drones déjà vendus. L’interdiction concerne les nouvelles certifications. Les modèles actuels, comme le DJI Mavic 3 ou le Mini 4 Pro, pourront continuer à être vendus tant qu’ils ont déjà leur ID FCC. C’est ce qui explique la frénésie d’achat actuelle : les consommateurs veulent s’équiper avec du matériel éprouvé avant que l’innovation ne soit stoppée net à la frontière.
Il existe bien une porte de sortie, mais elle ressemble plus à un trou de souris qu’à une véritable voie commerciale. Les fabricants pourront demander une inspection au Département de la Défense (Pentagone) ou à la Sécurité intérieure. S’ils obtiennent un feu vert prouvant l’absence de risque, la FCC pourra certifier.
On a du mal à imaginer le Pentagone auditer la chaîne de production du prochain drone grand public à 300 dollars pour vérifier chaque puce ? C’est une procédure taillée pour des équipements industriels ou militaires spécifiques, pas pour le marché de masse.
Un marché américain qui se tire une balle dans le pied
La réalité, c’est que cette décision risque de transformer le marché américain du drone en désert technologique. Skydio, le champion américain, a déjà jeté l’éponge sur le marché grand public pour se concentrer sur l’entreprise et le militaire. Sans la concurrence de DJI et Autel, qui va pousser l’innovation ?
L’impact sur les prix va être violent. Fabriquer des moteurs, des contrôleurs et des batteries sur le sol américain coûte infiniment plus cher. On risque de voir émerger des produits moins performants, vendus deux fois plus cher, simplement parce qu’ils portent l’étiquette « Made in USA ». C’est le consommateur qui paiera l’addition de cette guerre économique déguisée.
Brendan Carr a admis que la FCC n’était plus « indépendante » mais servait la volonté du président. Cela confirme que la régulation technique est devenue une arme politique. Pour l’instant, l’Europe regarde. Mais si DJI perd son plus gros marché, c’est toute sa capacité à investir en R&D qui prendra un coup, impactant in fine les pilotes du monde entier.
Une nouvelle proposition californienne vise à lancer des milliers de satellites conçus pour éclairer la Terre la nuit, suscitant des inquiétudes au sein de la communauté scientifique au sujet des impacts sur l’astronomie et la sécurité aérienne. Ce projet ambitieux soulève de nombreuses questions sur ses implications futures.
La technologie d’éclairage orbital avec des miroirs géants
Contrairement aux constellations de satellites classiques, tels que Starlink de SpaceX, qui peuvent réfléchir la lumière solaire de manière imprévue, les réflecteurs de Reflect Orbital sont spécifiquement conçus pour diriger la lumière vers le sol. Pour les chercheurs, cette spécificité rend la proposition, soutenue par la Commission Fédérale des Communications (FCC) des États-Unis, particulièrement inquiétante.
D’un point de vue astronomique, cela pourrait être catastrophique.
Affirme Robert Massey, directeur exécutif adjoint de la Royal Astronomical Society, au Royaume-Unis.
Reflect Orbital a sollicité l’autorisation de la FCC pour lancer son premier satellite expérimental, le EARENDIL-1, dès 2026. Le projet à long terme de l’entreprise consiste à lancer des milliers de satellites réflecteurs pour réorienter la lumière solaire vers la Terre la nuit, déclenchant une forte opposition.
Des astronomes et des spécialistes de l’aviation avertissent que ce projet pourrait perturber les observations astronomiques, poser des risques pour la sécurité des pilotes et altérer l’apparence du ciel nocturne de façon permanente.
Sharing a bit more about Reflect Orbital today. @4TristanS and I are developing a constellation of revolutionary satellites to sell sunlight to thousands of solar farms after dark.
We think sunlight is the new oil and space is ready to support energy infrastructure. This… pic.twitter.com/5WRb8etAv0
Reflect Orbital décrit son concept comme « vendre de la lumière solaire ». Si les missions initiales réussissent, l’entreprise espère mettre en orbite jusqu’à 4000 satellites équipés de miroirs d’ici 2030. Chaque satellite serait équipé d’un miroir repliable mesurant jusqu’à 18 mètres de large, couvrant environ 325 mètres carrés.
Les réflecteurs pourraient rediriger la lumière solaire pour illuminer des zones spécifiques au sol avec un diamètre allant jusqu’à cinq kilomètres. Selon les estimations de l’entreprise, la lumière d’un seul réflecteur pourrait rendre une zone jusqu’à quatre fois plus lumineuse qu’une pleine lune.
Des modèles futurs dans la constellation proposée par Reflect Orbital pourraient utiliser des miroirs de 54 mètres de diamètre, augmentant ainsi la zone éclairée et l’intensité. L’entreprise soutient que cette lumière artificielle pourrait prolonger les heures de jour pour des applications dans l’énergie, l’agriculture ou l’éclairage urbain, et que les réflexions ciblées et limitées dans le temps minimiserient tout impact visuel plus large.
Notre service est hautement localisé. Chaque réflexion couvre une zone définie pendant une période limitée, plutôt que de fournir un éclairage continu ou généralisé.
Ont déclaré des représentants de la société à Space.com.
La forte opposition de la communauté scientifique à ces miroirs géants
Les astronomes et experts en politique spatiale demeurent sceptiques. Ils estiment que ce plan présente des risques sérieux tant pour la recherche scientifique que pour la sécurité publique.
Le but central de ce projet est d’illuminer le ciel et d’étendre la lumière du jour, ce qui est catastrophique du point de vue astronomique.
Répète Robert Massey.
Samantha Lawler, astronome à l’Université de Regina au Canada, a déclaré que le projet est une « idée terrible ». Elle affirme que même un seul miroir pourrait éblouir les observateurs utilisant un télescope ou des jumelles. Avec des milliers de réflecteurs en orbite, elle prévient que l’observation des étoiles deviendrait « quasiment impossible » dans de nombreuses régions du monde.
Lawler a également mentionné que la luminosité de ces miroirs pourrait constituer un danger pour les pilotes, qui pourraient être distraits par des éclats soudains lorsque les miroirs tournent ou se repositionnent.
Une petite entreprise en Californie pourrait, avec quelques millions de dollars et l’approbation d’une seule agence fédérale des États-Unis, changer le ciel nocturne pour tout le monde.
A-t-elle déploré.
Obstacles techniques…
Le satellite EARENDIL-1 opérerait en orbite synchrone solaire, circulant autour de la Terre de pôle à pôle, restant aligné avec la frontière entre le jour et la nuit. Cette orientation permettrait au miroir de rediriger la lumière du soleil du hémisphère éclairé vers le côté obscur.
Bien que la physique de la réflexion de la lumière solaire soit bien comprise, les experts mettent en doute la capacité à satisfaire aux exigences techniques d’un tel système.
Il est hautement improbable que cela se concrétise en raison de la complexité de l’ingénierie impliquée et de l’opération dans des orbites encombrées comme la LEO.
A déclaré Fionagh Thomson, chercheuse en éthique spatiale à l’Université de Durham, en Angleterre.
Des efforts similaires ont échoué par le passé. La Russie a tenté de lancer deux satellites-miroirs en 1993 et 1999 dans le cadre de son programme Znamya, mais les deux missions ont été abandonnées après des difficultés techniques, et les engins ont fini par brûler lors de la rentrée.
Thomson a ajouté que même si le concept de Reflect Orbital fonctionnait comme prévu, la génération d’énergie à partir de la lumière solaire redirigée serait prohibitive en termes de coûts. La lumière réfléchie en orbite serait des milliers de fois plus faible que la radiation solaire directe, ce qui signifie que les parcs solaires produiraient seulement une fraction infime de leur électricité habituelle.
Massey conclut que les astronomes s’inquiètent fortement des précédents qu’une telle approbation pourrait établir.
En cliquant sur OK ou en poursuivant la navigation sur mon merveilleux site ;-), vous acceptez les CGU / politique de confidentialité et les cookies nécessaires au bon fonctionnement de celui-ci.