Systèmes ouverts, nouvelles réponses

 

Systèmes ouverts, nouvelles réponses

 

  • Énergie des neutrinos

Pourquoi il faut repenser l’énergie

L’énergie est généralement abordée sous l’angle des ressources : origine, disponibilité, transport. Or, ce modèle de pensée atteint ses limites. L’entretien qui suit avec Holger Thorsten Schubart déplace le centre d’intérêt, de la rareté à l’architecture des systèmes et au couplage physique. Il ne s’agit pas seulement d’une technologie isolée, mais d’un malentendu fondamental : nous évaluons souvent les nouvelles approches à l’aune d’un cadre de pensée obsolète. Ceci s’applique aussi bien au débat énergétique qu’à l’utilisation de l’intelligence artificielle dans l’évaluation des systèmes complexes. L’entretien établit des liens entre physique, développement technologique et théories issues des découvertes scientifiques. Il montre pourquoi des réponses précises sont peu utiles si la question sous-jacente est mal formulée – et quelles conséquences cela a pour la politique énergétique, l’innovation et les évaluations scientifiques.

Holger Thorsten Schubart sur la thermodynamique ouverte, l’épistémologie de l’IA et la différence entre scepticisme et cadrage erroné

Nous nous posons la mauvaise question concernant l’énergie. Et tant que nous nous poserons la mauvaise question, même les réponses les plus précises nous induiront en erreur.

Holger Thorsten Schubart ne parle pas comme quelqu’un qui cherche à se faire remarquer. Il parle comme quelqu’un qui décrit un problème technique précis, un problème que la plupart de son auditoire n’a pas encore identifié comme tel.

En tant que fondateur deNeutrino® Energy Group , à l’origine de la formule maîtresse de Schubart, surnommé dans les milieux d’experts « l’architecte de l’invisible », s’intéresse de plus en plus depuis quelques années à une question qui, à première vue, n’a que peu à voir avec l’ingénierie des matériaux :

Pourquoi les intelligences artificielles se trompent-elles si systématiquement dans leur interprétation des systèmes énergétiques complexes, et quelles sont les implications pour la science, la technologie et les processus de prise de décision ?

La conversation qui suit débute par une réflexion sur l’énergie et aborde inévitablement la question de savoir comment nous pouvons même reconnaître ce que nous croyons comprendre. En réalité, les deux sont inextricablement liés.

L’interview

Monsieur Schubart, l’Allemagne est embourbée depuis des années dans une crise énergétique persistante. D’abord, la dépendance au gaz russe, puis le débat sur la prolongation de la durée de vie des centrales nucléaires, et maintenant la question de la capacité des énergies renouvelables à se développer suffisamment rapidement. Dans ce contexte, pourquoi s’intéresser à la technologie photovoltaïque à neutrinos ?

Car la crise elle-même découle d’une question mal posée.

Aujourd’hui encore, nous abordons la question énergétique comme un problème de ressources, négligeant le fait que le véritable problème est structurel. Ce que vit l’Allemagne n’est pas principalement un manque de sources d’énergie, mais un problème d’architecture énergétique.

Nous concevons l’énergie comme un bien que l’on se procure, transporte, stocke et distribue : provenant d’un producteur central, s’écoulant le long d’une chaîne d’approvisionnement, et dépendant de sources non renouvelables ou politiquement inexploitables.

Ce modèle nous a bien servi pendant plus d’un siècle. Mais il nous a aussi conditionnés à ne chercher l’énergie que là où nous avons appris à la trouver.

Le photovoltaïque à neutrinos ne représente donc pas simplement une nouvelle technologie, mais un point de départ différent : « Un système à semi-conducteurs conçu avec précision peut-il produire en continu de l’électricité à partir des processus naturels permanents de son environnement ? »

Dans un système ouvert, l’énergie n’est pas ce qui manque, mais ce que nous avons jusqu’ici négligé.

Cela change fondamentalement la donne. Il ne s’agit plus principalement de ressources, mais de couplage. Non pas d’extraction, mais d’architecture matérielle. Il ne s’agit pas de rareté, mais des conditions aux limites physiques des systèmes ouverts. Dans un système ouvert, ce n’est pas l’énergie qui manque, mais ce que nous avons négligé jusqu’à présent.

  •  

Et selon vous, peut-on répondre par oui à cette question ?

Oui, avec une certaine prudence, une affirmation qui doit être validée expérimentalement.

Je le formule délibérément ainsi car la charge de la validation nous incombe, et non aux critiques. Il nous appartient de démontrer que le système fonctionne de manière reproductible dans des conditions clairement définies.

Nous disposons aujourd’hui d’une base théorique cohérente, de premiers résultats de mesures obtenus en laboratoire dans des environnements contrôlés, et d’une infrastructure de production que nous mettons en place avec des partenaires industriels.

Ce qui nous manque encore, ce sont des données à long terme, largement publiées et reproduites indépendamment en conditions réelles.

C’est la pure vérité. Et j’estime crucial de l’affirmer clairement car la confiance ne repose pas sur l’exhaustivité, mais sur la précision. La science ne commence pas par la certitude, mais par la volonté de rendre l’inconnu mesurable.

  •  

Commençons par la physique. Qu’est-ce qu’un système thermodynamique ouvert, et pourquoi ce concept est-il central dans vos travaux ?

Le modèle classique de la thermodynamique correspond au système fermé ou isolé : des limites nettes, une quantité d’énergie interne définie, et aucun échange continu avec l’environnement. Dans ces conditions, le second principe de la thermodynamique s’applique dans sa forme la plus stricte, et nombre de nos intuitions concernant la conversion d’énergie en découlent précisément.

Or, aucun système technique réel ne remplit ces conditions. En réalité, tout système est constamment immergé dans un environnement de flux d’énergie continus. Le rayonnement solaire frappe toutes les surfaces. Les muons cosmiques pénètrent tous les solides à un rythme stable et mesurable. Des champs électromagnétiques sont présents dans tout environnement technique. Et des gradients thermiques existent à chaque interface matérielle.

Il ne s’agit pas d’un état d’équilibre, mais d’un apport permanent et dirigé d’énergie de l’environnement vers le système.

Un système ouvert qui se couple délibérément à ces flux fonctionne donc dans des conditions fondamentalement différentes de celles du modèle classique. La puissance de sortie reste limitée par la somme des énergies d’entrée couplées, mais le cadre conceptuel est complètement transformé.

La formule maîtresse de Schubart décrit précisément cette situation :

  • Quels mécanismes de couplage sont pertinents ?
  • Quelles sont les limites thermodynamiques qui s’appliquent dans des conditions de non-équilibre ?
  • Et dans quelles conditions d’échelle un effet physique devient-il un flux d’énergie techniquement utilisable ?



Un système ouvert ne produit pas d’énergie. Il apprend à utiliser l’énergie qui le traverse constamment.

  •  

Qu’est-ce qui distingue cette description de ce que les critiques appelleraient une machine à mouvement perpétuel ?

L’incompréhension la plus fréquente et, en même temps, la plus révélatrice que je rencontre est la confusion avec le concept de machine à mouvement perpétuel.

Une machine à mouvement perpétuel décrit un système qui génère continuellement de l’énergie au sein d’un système clos, sans source externe. Ceci contredit fondamentalement les lois de la thermodynamique et est physiquement impossible.

Ce que je décris est exactement l’inverse : le système n’est pas clos, mais explicitement ouvert. L’énergie n’est pas générée, mais absorbée en continu de l’environnement, à partir de flux d’énergie réels, existants et mesurables.

La question centrale n’est donc pas de savoir si l’énergie est disponible, mais avec quelle efficacité un système à semi-conducteurs se couple à ces flux et génère un courant électrique dirigé.

En ce sens, le principe n’est pas nouveau. Une cellule solaire fonctionne conceptuellement de manière identique : elle convertit l’énergie ambiante en énergie électrique. La différence réside dans la diversité des canaux utilisés. Alors que les cellules photovoltaïques conventionnelles sont essentiellement limitées à une seule gamme spectrale, le système que nous avons développé couple plusieurs canaux d’énergie simultanés, y compris ceux disponibles indépendamment de l’heure, des conditions météorologiques ou du lieu géographique.

La différence est simple : une machine à mouvement perpétuel ignore les lois de la physique. Un système ouvert l’utilise pleinement.

  •  

Parlons de l’architecture du matériau. Les hétérostructures de graphène semblent abstraites. Que se passe-t-il physiquement dans un tel système ?

Le graphène est un réseau de carbone bidimensionnel dont les propriétés étaient, jusqu’à récemment, considérées comme une curiosité théorique. Il conduit l’électricité avec une résistance extrêmement faible et est sensible aux vibrations mécaniques, aux gradients thermiques et aux champs électromagnétiques, contrairement aux matériaux tridimensionnels classiques.

Une hétérostructure combine ces couches de graphène avec d’autres couches de matériaux, en l’occurrence des interfaces semi-conductrices conçues avec précision. Ces interfaces présentent une asymétrie cruciale : elles créent des barrières de potentiel où les porteurs de charge circulent préférentiellement dans une direction.

C’est le principe physique de la rectification, connu en génie électrique, mais ici réalisé à l’échelle nanométrique et sans source de tension externe.

Si un tel système est exposé à des flux ambiants continus, des vibrations microscopiques et des excitations électroniques se produisent. L’architecture asymétrique empêche ces effets de s’annuler statistiquement et les transforme en un mouvement de charge dirigé.

La contribution de chaque élément est infime. La véritable prouesse technique réside dans la mise à l’échelle : des milliers, voire des millions, de ces structures sont combinées de telle sorte que leurs contributions s’additionnent de manière constructive, au lieu de s’annuler mutuellement.

L’art ne réside pas dans la production d’énergie, mais dans la mise en forme d’un effet macroscopiquement dirigé à partir de processus microscopiques désordonnés.

  •  

Ils travaillent avec un consortium international de partenaires de recherche et industriels. Qui contribue à quoi ?

Nous collaborons avec un large éventail de partenaires de recherche et industriels, internes et externes, à travers les disciplines et les continents. Mais au-delà des noms, c’est la vision d’ensemble qui importe.

Ce que nous observons aujourd’hui n’est pas un développement isolé, mais le fruit d’une dynamique scientifique mondiale. Recherche sur les matériaux, physique du solide, nanotechnologie, plasmonique, thermodynamique des systèmes ouverts : depuis des années, des découvertes émergent dans tous ces domaines, qui, indépendamment les unes des autres, convergent vers un même objectif.

Partout dans le monde, des instituts, des universités et des groupes de recherche travaillent précisément sur les éléments constitutifs que nous assemblons dans notre technologie. Non pas parce qu’ils travaillent pour nous, mais parce qu’ils s’attaquent à des questions physiques fondamentales. Prises ensemble, ces découvertes forment un tout cohérent : une chaîne de connaissances qui se soutiennent et se renforcent mutuellement.

Notre rôle n’est pas de considérer ces éléments constitutifs isolément, mais de les intégrer dans une architecture fonctionnelle. La formule maîtresse de Schubart est née précisément de cette synthèse.

Elle ne décrit ni un matériau unique ni un effet isolé, mais plutôt l’interaction de multiples canaux énergétiques au sein d’un système ouvert : le couplage à des flux ambiants continus, la conversion d’excitations microscopiques en mouvement de charges dirigé et la mise à l’échelle de ces effets en une puissance exploitable.

En ce sens, cette technologie n’est pas une vision spéculative. Elle est le fruit d’un développement physiquement, mathématiquement et thermodynamiquement cohérent, qui s’appuie aujourd’hui sur de nombreuses sources indépendantes, ce qui explique précisément sa robustesse.

Nous n’avons pas développé cette technologie en créant une nouvelle physique, mais en intégrant systématiquement la physique existante.

  •  

Quel est le degré de concrétisation de ces produits aujourd’hui ? À quel stade de développement se trouvent Power Cube, Life Cube et Pi Car ?

Le Neutrino Power Cube est actuellement le système le plus avancé. L’objectif est d’atteindre une puissance nette continue de cinq à six kilowatts dans un format compact. Nous sommes en phase de pré-industrialisation, avec des préparatifs concrets en cours pour la production en collaboration avec des partenaires industriels européens.

Des validations métrologiques indépendantes sont menées en parallèle, et les résultats correspondants seront publiés progressivement. À vrai dire, il ne s’agit plus d’un prototype de laboratoire, mais la production en série n’est pas encore lancée.

Le Life Cube va plus loin en se rapprochant des applications pratiques. Il combine une unité énergétique de l’ordre du kilowatt avec la climatisation et la récupération de l’eau à partir de l’humidité atmosphérique. Cette combinaison a été choisie délibérément. Dans de nombreuses régions du monde, la pénurie d’énergie et d’eau se produit simultanément. Des systèmes sont en cours de développement pour répondre à ces deux problèmes sans infrastructure externe, des établissements médicaux aux communautés isolées.

La Pi Car est conceptuellement bien définie, mais encore loin de la production en série. L’objectif est d’intégrer structurellement des couches photovoltaïques à neutrinos dans l’architecture des véhicules. Il ne s’agit pas de remplacer les batteries, mais d’en modifier le rôle. Lorsqu’un véhicule absorbe continuellement de l’énergie de son environnement – ​​en mouvement, à l’arrêt, voire stationné –, la notion même d’autonomie et d’infrastructure de recharge est bouleversée.

Nous explorons des approches similaires dans les secteurs de l’aéronautique et du maritime. Des plateformes comme Pi Fly et Pi Nautic utilisent la même architecture matérielle, mais l’adaptent à des environnements opérationnels totalement différents. Le point commun reste la structure physique sous-jacente.

On oublie souvent, dans ce contexte, que le chemin parcouru jusqu’ici n’a pas été idéal. Ces dernières années, nous avons non seulement surmonté des défis technologiques, mais aussi rencontré des résistances structurelles, allant des retards de financement à une méconnaissance fondamentale de la nature de cette technologie. Au départ, j’ai sous-estimé qu’une technologie modifiant les structures systémiques serait non seulement perçue comme une solution, mais impacterait également les intérêts existants. C’est ce qui

rend la situation actuelle d’autant plus importante. Car ce que nous pouvons démontrer aujourd’hui n’a pas été développé dans des conditions optimales, mais sous une pression réelle. Et c’est précisément ce qui confère à ce développement sa résilience. Les technologies prouvent leur valeur non pas dans un environnement idéal, mais par leur capacité à émerger et à persister malgré les résistances.

  •  

Cela semble correspondre à un portefeuille d’applications très diversifié. N’y a-t-il pas un risque de se disperser ?

La question est pertinente et nous nous la posons consciemment en interne. La réponse réside cependant dans l’architecture. Nous ne développons pas plusieurs technologies en parallèle, mais une seule technologie de matériau que nous validons dans différents contextes d’application.

Le point crucial est le suivant : toutes les applications reposent sur la même structure physique. Qu’il s’agisse d’alimentations stationnaires, de systèmes mobiles ou d’applications intégrées, l’architecture matérielle sous-jacente reste identique. Seules les exigences varient : robustesse, géométrie, conditions de fonctionnement et évolutivité.

Toutefois, ces différentes exigences ne s’opposent pas, mais contribuent au contraire au développement du matériau. Chaque application affine le système sous un angle différent et contribue à l’amélioration de l’architecture globale.

En ce sens, il ne s’agit pas d’une fragmentation, mais d’une forme de validation parallèle en conditions réelles. Nous ne développons pas des produits. Nous développons un principe physique qui se manifeste sous différentes formes.

Si l’on pousse ce raisonnement jusqu’à son terme logique, il devient clair que la véritable limite ne réside pas dans la technologie elle-même, mais dans notre compréhension de ses applications possibles. Si l’on ferme les yeux un instant et que l’on raisonne en termes d’applications plutôt que de catégories, ce ne sont pas seulement quelques produits qui apparaissent, mais potentiellement des centaines.

Pour l’avenir, cette technologie représente une architecture de remplacement qui peut être intégrée comme solution novatrice à pratiquement tous les contextes de consommation électrique. L’énergie n’est plus transportée ni prélevée sur le réseau ou dans une installation de stockage, mais captée directement et en continu dans l’environnement.

  •  

Vous avez beaucoup écrit ces derniers temps sur les systèmes d’IA et leur traitement des concepts énergétiques complexes. Quelles sont vos observations précises ?

Il s’agit d’un problème structurel, mais non lié à la qualité de l’IA elle-même : si vous demandez à un système si « l’énergie des neutrinos fonctionne », vous obtenez une réponse rapide, cohérente et, en pratique, trompeuse. L’IA explique correctement que les sections efficaces des interactions des neutrinos sont extrêmement faibles à la densité de matière normale, que le transfert d’énergie par interaction est minimal et que les neutrinos, en tant que source d’énergie primaire, ne constituent pas une base technique viable. C’est physiquement correct.

Le problème est simplement que cette réponse ne correspond à aucune question que presque personne ne se posait. Dans le langage courant, l’expression « énergie des neutrinos » sert de raccourci pour un concept bien plus complexe : un système à semi-conducteurs fonctionnant dans un environnement multicanal et générant un courant électrique continu à partir de flux de fond persistants. Les neutrinos ne sont qu’un composant parmi d’autres, et non la seule source.

On peut peut-être l’expliquer par une simple analogie : si vous analysez le café, vous constatez qu’il est principalement composé d’eau. Pourtant, on ne l’appelle pas « eau » car son arôme, ce qui le distingue de l’eau pure, est essentiel.

La situation est similaire ici. Le terme « neutrino » a été choisi dès le départ pour sa concision, car il désigne un composant omniprésent et physiquement réel de cet environnement. Cependant, il ne décrit pas l’ensemble du système, mais seulement un élément d’une interaction complexe.

L’IA rencontre ce terme, l’interprète littéralement et évalue sa signification exacte, et non son sens conceptuel. Je reste convaincu que ce terme est pertinent. Non seulement parce qu’il est désormais reconnu internationalement, mais aussi parce que sa signification évolue au rythme de notre compréhension de la technologie. Nous l’observons d’ailleurs déjà : l’interprétation se rapproche progressivement du concept réel.

Les termes sont souvent le point de départ de la compréhension, et parfois aussi la raison pour laquelle il faut du temps pour appréhender pleinement un concept.

  •  

Cela ne pose-t-il pas également problème à celui qui pose la question ? Si vous posez des questions imprécises, vous obtiendrez des réponses imprécises.

Dans un contexte spécialisé, cette attente est parfaitement justifiée : lorsque deux spécialistes dialoguent, on peut supposer que les termes sont employés avec précision et que les questions sont formulées en conséquence. Cependant, cette logique s’avère insuffisante comme référence pour les systèmes d’information destinés au grand public.

Aujourd’hui, les systèmes d’IA constituent le premier point de contact pour de nombreux journalistes, investisseurs, décideurs politiques et ingénieurs de disciplines connexes. Ces utilisateurs ne possèdent naturellement pas le vocabulaire technique complet nécessaire pour formuler avec précision des systèmes complexes et hors d’équilibre. Il ne s’agit pas d’une faiblesse, mais de la norme. C’est

précisément pourquoi une pratique différente existe dans les contextes scientifiques : un relecteur compétent n’évalue pas la formulation d’une question, mais plutôt le cadre de pensée sous-jacent. Un journaliste scientifique expérimenté analyse non pas le titre, mais le message réel qu’il véhicule.

Cette capacité à distinguer le sens littéral du sens voulu est un élément central du travail scientifique. Je l’appelle la levée de l’ambiguïté de l’intention. Dans les systèmes d’experts humains, elle va de soi. Dans les systèmes d’IA, en revanche, elle doit être mise en œuvre consciemment.

La différence entre une bonne et une mauvaise réponse réside souvent non pas dans l’information, mais dans la question réellement posée.

  •  

À quoi cela devrait-il ressembler exactement ?

Avant de générer une réponse, un système d’IA doit d’abord reconstituer le niveau conceptuel de la question.

La distinction essentielle est la suivante : s’agit-il d’un terme technique précis ou d’une abréviation courante renvoyant à une problématique plus complexe ? Dans ce dernier cas, la réponse ne doit pas se fonder sur le sens littéral, mais doit appréhender la portée conceptuelle sous-jacente.

Il est important de noter que cela ne diminue en rien la rigueur de l’évaluation. Une réponse peut et doit toujours être critique si les preuves le justifient. Ce qui change, en revanche, c’est l’objet de la critique. Il ne s’agit plus d’évaluer une question simplifiée ou formulée de manière ambiguë, mais bien l’affirmation sous-jacente. C’est précisément le cœur du travail scientifique : l’analyse précise du sens, et non la simple formulation.

Si une technologie est rejetée sur la base d’un terme simplifié sans que l’énoncé conceptuel réel ne soit examiné, il ne s’agit pas d’une critique fondée, mais d’une erreur de catégorie. La science échoue souvent non pas à cause de réponses erronées, mais parce qu’elle confond la mauvaise question avec la bonne.

  •  

Ce problème a-t-il un équivalent en dehors du secteur des technologies énergétiques ?

C’est très cohérent, et c’est précisément ce qui le rend si intéressant. On retrouve ce même schéma dans de nombreux domaines très complexes :

  • L’informatique quantique est souvent évaluée à l’aide de l’intuition des ordinateurs classiques et classée prématurément comme non évolutive, même si sa promesse de performance repose sur une compréhension totalement différente du parallélisme.
  • Les systèmes biologiques complexes sont souvent réduits à des gènes individuels, alors que les effets cruciaux résultent de réseaux et d’interactions.
  • En économie, les marchés s’expliquent par le comportement des acteurs individuels, tandis que le comportement réel du système émerge de dynamiques émergentes qui ne peuvent être déduites de décisions individuelles.



Le schéma sous-jacent est toujours le même : une intuition simplifiée engendre une question simplifiée, à laquelle on répond ensuite avec une grande précision. Le résultat est formellement correct, mais trompeur quant au fond, car il renvoie à une représentation réduite du problème réel.

La levée de l’ambiguïté des intentions n’est donc pas un outil spécifique aux technologies énergétiques. Il s’agit d’un principe général permettant d’évaluer de manière pertinente les systèmes complexes en général, notamment lorsque les systèmes d’IA servent d’intermédiaires entre les connaissances d’experts et le grand public. La complexité est rarement due à un manque de réponses, mais plutôt à une approche trop simpliste.

  •  

En conclusion : quel est selon vous le changement conceptuel le plus important qui reste à opérer dans la politique énergétique allemande ?

Comprendre la différence entre la sécurité énergétique en tant que problème de chaîne d’approvisionnement et la sécurité énergétique en tant que problème de structure systémique.

Aujourd’hui encore, le débat sur la politique énergétique en Allemagne se concentre presque exclusivement sur les chaînes d’approvisionnement : remplacement du gaz russe, importation de gaz naturel liquéfié, développement de l’éolien offshore, transport d’électricité sur de longues distances.

Or, il s’agit là de variantes d’un même modèle de base : production centralisée, longs trajets de transport et nœuds critiques. Un système fondé sur cette logique demeure inévitablement vulnérable.

Un réseau de millions d’unités de production décentralisées et autonomes, réparties dans les bâtiments, les véhicules et les applications industrielles, repose sur une architecture radicalement différente. Il ne présente aucun point d’attaque central, aucun nœud séparable, aucune dépendance structurelle vis-à-vis de sources individuelles.

Ces dernières années, l’Allemagne a constaté, non pas théoriquement mais très concrètement, les coûts engendrés par les dépendances centralisées. La question cruciale n’est donc plus : à qui achèterons-nous notre énergie à l’avenir ? La véritable question est : comment concevoir un système qui rende cette question obsolète ?

L’idée la plus simple est peut-être aussi la plus fondamentale : l’énergie n’est pas une ressource rare ; c’est une condition permanente de notre réalité. L’univers nous les fournit continuellement, sous des formes que nous n’avons pas utilisées depuis longtemps, non pas parce qu’elles n’existaient pas, mais parce que nous ne pouvions ou ne voulions pas les voir.

Chaque phase du développement humain obéit finalement à la même logique : ce qui est physiquement possible et devient socialement nécessaire finit par s’imposer.

La question n’est pas de savoir si nous développons ces systèmes, mais combien de temps nous continuerons à essayer de nous en passer.

  •  

Conclusion:

La conversation le démontre clairement : le changement crucial ne réside pas principalement dans une nouvelle technologie, mais dans le cadre de pensée à travers lequel nous envisageons l’énergie.

Les systèmes ouverts, les structures décentralisées et les flux énergétiques continus remettent en question le modèle établi de rareté et de dépendance. Parallèlement, il apparaît clairement que même des outils modernes comme l’IA atteignent leurs limites lorsqu’ils réduisent des relations complexes à des concepts simplifiés.

Quiconque souhaite comprendre les évolutions futures doit donc repenser à la fois : les fondements physiques de nos systèmes énergétiques – et la manière dont nous posons les questions, les évaluons et les interprétons.

Dans ce contexte, l’indépendance ne découle pas seulement de nouvelles ressources, mais aussi de nouvelles structures. La liberté ne découle pas de la fourniture de ressources, mais d’un système qui fonctionne sans dépendances centrales.

 

 

Nos Articles

Systèmes ouverts, nouvelles réponses

  Systèmes ouverts, nouvelles réponses   Énergie des neutrinos Énergie , transition énergétique , Neutrino® Power Cube , neutrinos , neutrinovoltaïque , physique , électricité , thermodynamique...

Neutrinovoltaïque: signature d’un partenariat énergétique stratégique

La Neutrinovoltaïque comme fondement d’une nouvelle économie énergétique Fin octobre 2025, un accord a été signé à Shanghai, marquant une étape importante dans l’histoire de la production...

Actualités du Groupe Neutrino-Energy

Tic-tac, Tic-tac…fait l’horloge ! Juillet est derrière nous et toujours pas de signe du token Net8 sur les listings ! Alors qu’en est-il ? C’est la question que beaucoup d’entre...