CmykStudent implemented a simple palette exporter to KPL, Krita’s palette file format.
The other file format support they added is Over the Air Bitmap. Not sure how to comment on that. I guess if we all die in a nuclear holocaust, cockroaches will be exchanging those with each other on Nokia 3310, and they’ll need a way to open and export those? Well, that’s one way to future-proof GIMP then!
Dave Carter finished adding initial support for external materials databases. The plan is to make it possible using external web services, for both downloading and uploading material definitions. The feature doesn’t seem to be built by default in weeklies yet, which is fine, as there are no external databases hooked up to the functionality yet.
In other news, the FPA’s general assembly approved spending earmarked EUR 5000 on grants towards various small fixes and improvements in TechDraw and PartDesign. The CAD Working Group will be distributing the bounties. Here is the full list of pre-approved issues to fix and features to implement.
The new version comes with a major new feature: automatically creating masks to separate objects from their background. On the inside, the feature uses Meta’s Segment Anything Model 2.
Among other changes:
Faster and more precise audio thumbnails
Completely rewritten OpenTimelineIO import/exporting, should be more robust now
You can now change the duration of multiple selected clips (right-click on the selection, choose Edit Duration, keep “Apply duration to all items” checked)
Vertical zooming in audio tracks, with x1, x2, x4, and x8 presets
Shift+Click now expands/collapses all effects in the stack
The new version of Mixxx brings controller mappings for DJ TechTools MIDI Fighter Spectra, Numark NS6II, Numark Platinum FX, M-Vave SMC-Mixer, Hercules DJControl Inpulse 500, and Reloop Digital Jockey 2 IE controllers. It also adds a mapping for the M-Vave SMK-25 II controller (see here for how its controls are mapped).
The Hercules DJControl Inpulse 300 controller now supports toneplay, slicer, and beatmatch. Other mappings got updates, too. The full list of changes is here.
Missed this release of Giada a couple of weeks ago. The new version of the loop station allows MIDI input from multiple devices and ships various small fixes. For the downloads and the full list of changes, please see here.
This is a new, barely tested free (AGPL 3.0) plugin for smearing transients. Comes in LV2, VST3, and CLAP.
Here is what the developer says:
Disflux is a wild audio effect plugin that takes your transients and smears them through time, adding serious punch and weight. If you’re creating Hard Techno or Rawstyle and need your kicks to hit like a freaking train, Disflux is your new best friend. We’re talking aggressive, distorted, gated kicks that smack like no tomorrow.
BleachBit 5.0 fait un pas en avant dans le domaine des outils de maintenance et de nettoyage des systèmes d’exploitation pour les distributions Linux, Windows et macOS. Grâce à sa nature open source, l’utilitaire reste l’un des choix préférés de ceux qui accordent la priorité au contrôle des données et à la protection de la […]Cet article est apparu en premier sur infoidevice.fr -> Suivez InfoiDevice sur Twitter et Facebook
Jusqu’ici, si vous utilisiez le CMS Ghost pour gérer votre site, vos profils d’auteur ne pouvaient contenir que des liens vers Facebook ou X (anciennement Twitter). Un peu frustrant à l’heure du Fediverse et de la diversification des plateformes sociales… […]
Une nouvelle initiative de la Commission européenne, baptisée ProtectEU, fait craindre à de nombreux experts une remise en cause de ce principe fondamental. Dans une lettre ouverte adressée à la Vice-Présidente exécutive Henna Virkkunen, plus de 80 organisations et personnalités […]
MySQL 9.3.0 est officiellement disponible. Troisième mise à jour majeure de la série 9.x, cette version introduit des améliorations significatives sur plusieurs fronts, allant de la sauvegarde logique des utilisateurs aux progrès en JavaScript, en passant par la réplication et […]
IBM vient d’annoncer la sortie de son dernier serveur : le LinuxONE Emperor 5, cinquième génération de cette plateforme pensée pour les environnements critiques sous Linux. Il pourra compter immédiatement sur Ubuntu Server, confirme Canonical. Ce nouveau système ambitionne d’offrir […]
L'année 2024 a été particulièrement difficile pour le secteur des crédits carbone, chaque semaine apportant son lot de scandales [1]. Les enquêtes menées par la BBC sur des projets de crédits carbone gérés par des organisations étasuniennes de conservation ont révélé des cas de violences sexuelles au Kenya et des affirmations exagérées sur la réduction de la déforestation au Cambodge [2] Le Washington Post a dénoncé des développeurs de projets de crédits carbone au Brésil qui auraient accaparé illégalement plus de 20 millions d'hectares de terres publiques. De son côté, la chaîne allemande ZDF a mis en lumière ce qu'elle a qualifié de « l'un des plus grands cas de fraude de l'industrie pétrolière allemande », dans lequel des compagnies pétrolières auraient utilisé des projets carbone en Chine « n'existant que sur le papier » pour atteindre leurs objectifs en matière d'émissions [3].
Le scandale le plus embarrassant pour le secteur a probablement été l'inculpation de l'une de ses figures emblématiques, Ken Newcombe, ancien PDG de C-Quest Capital LLC, un développeur de projets de crédits carbone. Ce dernier a en effet été accusé de fraude par le bureau du procureur général des États-Unis pour avoir émis des millions de faux crédits carbone dans le cadre d'un projet de fourneaux au Malawi [4]. »
L'année 2025 pourrait s'avérer encore pire. Shell a essuyé de vives critiques pour avoir utilisé des « crédits fantômes » issus de projets rizicoles en Chine afin de qualifier son gaz naturel de « neutre en carbone ». Par ailleurs, un tribunal kenyan a jugé que les zones de conservation utilisées pour vendre des crédits carbone à Meta, Netflix et British Airways ne reposaient sur aucun fondement légal [5]. De plus, un développeur de crédits carbone, qui avait vendu des crédits à des stars d'Hollywood et à des milliardaires étasuniens sous le slogan « Clean rich is the new filthy rich » (« Les éco-riches sont les nouveaux ultra-riches »), fait actuellement l'objet d'une enquête menée par le ministère de la Justice et la Securities and Exchange Commission des États-Unis [6].
Malgré cette succession de scandales, l'intérêt des entreprises pour les crédits carbone reste intact. Dans certains milieux, il n'a fait que se renforcer. Alors que la plupart des scandales concernent des projets de compensation carbone fondés sur des « émissions évitées » (comme la protection des forêts tropicales), de nombreuses entreprises se tournent désormais vers des projets qui prétendent éliminer le carbone et le séquestrer dans les sols ou les arbres. En 2024, GRAIN a mis en lumière la façon dont cette évolution a provoqué une nouvelle ruée sur les terres pour des projets de plantation d'arbres et de cultures destinées à la production de crédits carbone [7]. Entre 2016 et 2024, plus de 9 millions d'hectares de terres ont été saisis pour ces projets, dont la grande majorité se situent dans le Sud global, et sont souvent associés à des scandales et à des préjudices pour les communautés locales [8].
Aujourd'hui, un autre type de projet de crédits carbone émerge : l'« agriculture carbone ». Ces projets prétendent séquestrer le carbone dans les sols en incitant les agriculteurs et agricultrices à mettre en œuvre des pratiques telles que la culture sans labour ou la rotation des cultures de couverture, techniques censées augmenter la teneur en carbone organique du sol. Bien que ces projets soient en développement depuis au moins dix ans, le marché des crédits liés à l'agriculture carbone a mis du temps à décoller [9]. À la fin de l'année 2022, seulement 0,02 % des 1,7 milliard de crédits émis sur les marchés volontaires du carbone provenaient de ce type de projet [10]. Toutefois, sous l'impulsion de puissantes entreprises de l'agrobusiness, la donne pourrait bientôt changer.
Un avenir incertain
Des dizaines d'entreprises recrutent actuellement des agriculteurs et agricultrices pour participer à ces programmes d'agriculture carbone. La plupart ciblent les grandes exploitations d'Amérique du Nord, d'Europe et du Brésil, mais certaines initiatives s'adressent aux petites structures. C'est le cas du programme mené par l'ONG néerlandaise Solidaridad, qui recrute de petits agriculteurs et agricultrices du Sud global produisant du coton, du cacao et d'autres cultures de base pour des entreprises [11]. (Voir tableau ci-dessous : Programmes d'agriculture carbone des entreprises)
La plupart des programmes d'agriculture carbone sont gérés par des sociétés agroalimentaires ou développés en partenariat étroit avec elles. Pour les géants des semences, des engrais et des pesticides, comme Yara ou Bayer, ces programmes sont un moyen d'attirer les agriculteurs et agricultrices sur leurs plateformes numériques, afin de les inciter à acheter davantage de leurs produits [12]. De leur côté, des entreprises agroalimentaires telles que Cargill, ADM et Mars voient dans l'agriculture carbone un moyen de réduire les émissions excessives de leurs chaînes d'approvisionnement, connues sous le nom d'émissions du « Scope 3 ». Ces programmes leur permettent de quantifier le carbone séquestré dans les sols par les agriculteurs et agricultrices et de le déduire de leurs émissions du Scope 3. Les entreprises appellent cela des « insets » (ou « compensations carbone intégrées ») pour les différencier des crédits carbone classiques, produits en dehors de leurs chaînes d'approvisionnement.
Les entreprises se lancent à corps perdu dans l'agriculture carbone, alors que les bases scientifiques de cette approche sont contestées [13]. L'idée repose sur une hypothèse simpliste : une tonne de carbone extraite de l'atmosphère et convertie en carbone organique du sol équivaudrait à une tonne de carbone émise par la combustion des énergies fossiles. Autrement dit, une tonne de carbone « séquestrée » compenserait une tonne d'émissions. Or, cette équivalence est fausse. Une tonne de combustibles fossiles laissée dans le sol est facilement quantifiable et permanente, tandis que le carbone séquestré dans les sols agricoles est difficile à mesurer avec précision et extrêmement instable, en particulier dans un contexte de chaos climatique.
Selon un article scientifique publié dans Nature en novembre 2024, pour « neutraliser » efficacement les émissions des combustibles fossiles, les projets de séquestration du carbone devraient stocker le carbone pendant au moins 1 000 ans [14]. Or, les programmes actuels d'agriculture carbone des entreprises n'exigent que des garanties que sur une durée maximale de 40 ans, et dans de nombreux cas, sur 10 ans ou moins [15].
Les scientifiques soulignent également que le sol a un taux de saturation en carbone. Il existe une limite à la quantité de carbone qui peut être ajoutée dans le sol, et la vitesse d'absorption diminue progressivement à mesure que la limite est atteinte. Autrement dit, si les « émissions nettes » d'une exploitation agricole (émissions moins absorptions) diminuent pendant la durée d'un projet d'agriculture carbone, elles remontent ensuite à mesure que l'exploitation se rapproche du taux de saturation. Or, les programmes d'agriculture carbone actuels ne prennent pas ce phénomène en compte. En réalité, une fois ces limites intégrées aux calculs, les scientifiques estiment que les absorptions liées à l'agriculture carbone ne pourraient compenser qu'à peine 1 % des émissions mondiales annuelles de gaz à effet de serre [16]. Un chiffre dérisoire face aux gigantesques émissions du système alimentaire, qui représente à lui seul plus d'un tiers des émissions mondiales annuelles [17].
Malgré cette polémique, les organismes de certification des crédits carbone ont largement adopté l'agriculture carbone et s'empressent d'élaborer des normes et des protocoles de certification. Les principaux acteurs du secteur, comme Gold Standard et Verra, ont déjà mis en place des normes dédiées à l'agriculture carbone ainsi que des protocoles internationaux pour la compensation carbone intégrée (insetting) au sein des chaînes d'approvisionnement [18].
S'attribuer tout le crédit
En janvier 2025, la société danoise Agreena a mis en place le premier « projet agricole à grande échelle » enregistré selon la nouvelle méthodologie de Verra dédiée à l'agriculture carbone. « Il s'agit d'un moment crucial pour le mouvement de l'agriculture régénérative et pour orienter vers les agriculteurs et agricultrices le financement carbone dont ils ont cruellement besoin », affirme Simon Haldrup, PDG d'Agreena [19].
Mais il est difficile d'affirmer que les « agriculteurs et agricultrices » qui travaillent avec l'entreprise de M. Haldrup ont réellement besoin d'un financement carbone. Agreena travaille principalement avec de grandes exploitations agricoles en Europe, et près de la moitié des terres agricoles certifiées dans le cadre de son projet appartiennent à des fonds souverains d'Arabie saoudite et des Émirats arabes unis [20].
Le puissant fonds souverain d'Arabie saoudite, le Fonds d'investissement public (PIF), qui détient également une grande partie de la compagnie pétrolière nationale Saudi Aramco, contrôle environ 200 000 hectares de terres agricoles en Ukraine via sa division agroalimentaire, SALIC. Celle-ci affirme avoir enregistré 156 000 hectares dans le projet d'agriculture carbone d'Agreena, certifié par Verra [21]. De son côté, le fonds souverain d'Abu Dhabi, ADQ, fortement impliqué dans le secteur pétrolier et gazier, a récemment acquis une exploitation de 55 000 hectares en Roumanie, qui serait la plus grande exploitation agricole d'Europe [22]. Cette exploitation fait également partie du projet d'agriculture carbone d'Agreena [23]/.
SALIC cherche également à obtenir des crédits carbone par le biais de l'élevage bovin au Brésil. Sa filiale Minerva, l'un des plus grands producteurs de viande au monde, tristement célèbre pour ses liens avec la déforestation et l'accaparement des terres en Amazonie, a récemment lancé MyCarbon, un programme d'agriculture carbone qui vise à produire des crédits carbone en augmentant la teneur en carbone des sols des pâturages dégradés [24]. Parmi ses partenaires figurent le géant norvégien des engrais Yara, qui incitera les agriculteurs et agricultrices participant·es à appliquer des engrais chimiques sur les pâturages (pratique encore peu répandue au Brésil), et la société étasunienne de pesticides Brandt, qui commercialisera sa nouvelle gamme de pesticides biologiques dans le cadre du programme [25].
Minerva, qui commercialise son bœuf exporté comme « neutre en carbone », a déjà commencé à vendre des crédits carbone issus de ses programmes sur le marché volontaire du carbone d'Arabie saoudite (également contrôlé par le PIF), ainsi que sur la nouvelle bourse carbone de Dubaï [26]. Jusqu'à présent, la plupart des crédits ont été achetés par Saudi Aramco [27].
Et ce n'est que la partie émergée de l'iceberg pour l'Arabie saoudite et le Brésil. Alors que Saudi Aramco achetait les crédits carbone de Minerva, les gouvernements brésilien et saoudien engageaient des négociations autour d'un projet de 120 milliards de dollars des États-Unis, connu sous le nom de PNCPD, visant à « récupérer et convertir » 40 millions d'hectares de pâturages et à doubler la production alimentaire du Brésil [28]. Ce programme d'agriculture carbone à grande échelle, dans lequel SALIC est le principal acteur du secteur privé, repose sur un financement mixte combinant crédits carbone, prêts et investissements étrangers. Cet accord permettra à l'Arabie saoudite d'obtenir plus de viande bovine et des compensations carbone pour ses compagnies pétrolières, tandis que le Brésil bénéficiera des fonds nécessaires pour augmenter sa production de viande bovine et d'autres produits agricoles destinés à l'exportation. Mais pour le climat, cette conversion massive des pâturages en plantations de soja et d'autres cultures est synonyme d'une nouvelle hausse des émissions et d'une déforestation accrue [29].
Minerva a déjà commencé à mettre son plan en œuvre. En partenariat avec Banco do Brasil et deux grandes entreprises spécialisées dans l'agriculture numérique, MyCarbon de Minerva déploie un programme PNCPD qui offre des prêts à faible taux d'intérêt aux éleveurs de bovins dans le but de « moderniser » leurs ranchs et de générer des crédits carbone [30].
Minerva célèbre l'exportation de cartons de bœuf étiquetés 'neutres en carbone' depuis son usine de transformation en Uruguay vers Israël, novembre 2023
Une tromperie qui gagne du terrain
Ce n'est pas en augmentant la production de bœuf, d'engrais et de pesticides que nous sortirons de la crise climatique, et encore moins en pratiquant le greenwashing pour d'autres combustibles fossiles et aliments transformés. L'agriculture carbone est présentée comme une solution pour réduire les émissions dans le système alimentaire, mais en réalité, elle est utilisée par Minerva et d'autres entreprises comme un substitut à cette réduction.
Cette réalité est particulièrement flagrante lorsque les crédits issus de l'agriculture carbone servent à compenser les émissions de combustibles fossiles d'entreprises telles que Saudi Aramco. Mais cela s'applique également aux programmes de compensations intégrées, largement adoptés par les entreprises agroalimentaires. Ces programmes permettent aux entreprises ayant des chaînes d'approvisionnement interconnectées de se regrouper, de mutualiser les coûts et de revendiquer ensemble des réductions d'émissions du Scope 3. Ceci explique la multiplication des collaborations en matière d'agriculture carbone entre les sociétés céréalières, comme ADM et Cargill, et les entreprises de transformation alimentaire, comme PepsiCo et Nestlé. Ces projets, souvent qualifiés d'« agriculture régénérative », ont pour objectif affiché non seulement de séquestrer le carbone, mais aussi de réduire les émissions et autres impacts environnementaux de l'agriculture industrielle (Voir Encadré : Du pareil au même ?)
Pourtant, dans la pratique, l'industrie reconnaît que ces programmes portent essentiellement sur des « absorptions » de carbone à court terme (c'est-à-dire la séquestration du carbone dans le sol) [31]. En effet, il suffit de quelques ajustements minimes, comme remplacer le labour par des pulvérisations de glyphosate (RoundUp) ou introduire des cultures de couverture en rotation, pour revendiquer une séquestration du carbone. En revanche, réduire durablement les émissions impliquerait de supprimer progressivement la majorité des intrants chimiques et de repenser entièrement la production agricole autour des marchés locaux, d'aliments nutritifs et d'une consommation modérée de viande et de produits laitiers. Une approche qu'aucune des grandes entreprises agroalimentaires n'est prête ni même en mesure d'envisager.
Il ne faut pas croire que les entreprises mettent en place des programmes d'agriculture carbone pour « orienter vers les agriculteurs et agricultrices le financement carbone dont ils ont tant besoin » (pour reprendre les termes du directeur général d'Agreena). Une étude sur les programmes d'agriculture carbone dans les États de l'Haryana et du Madhya Pradesh, en Inde, a révélé que ces programmes excluaient les agricultrices et les agriculteurs issus de castes marginalisées. Mais ces exclus ont peut-être eu de la chance. Parmi les plus grandes exploitations participant à ces programmes, 99 % n'ont reçu aucun avantage monétaire des crédits carbone, et beaucoup ont déclaré que leurs rendements avaient diminué. Il n'est pas surprenant que plus d'un quart des agriculteurs aient abandonné les programmes après la deuxième année [32].
Les conséquences de la crise climatique sur le système alimentaire mondial sont considérables. Nous devons faire tout ce qui est en notre pouvoir pour réduire les émissions du système alimentaire et restaurer la fertilité des sols, tout en réorganisant la production et la distribution alimentaires pour faire face aux perturbations de plus en plus graves causées par le changement climatique. Il existe de nombreux exemples dans le monde entier d'initiatives allant dans ce sens [33]. Mais les programmes d'agriculture carbone que les entreprises tentent de présenter comme des solutions climatiques illustrent une nouvelle fois leur incapacité à relever ce défi et soulignent la nécessité urgente de réduire leur pouvoir dans le système alimentaire.
Du pareil au même ?
Les entreprises qui tentent d'utiliser les crédits carbone dans le cadre de leurs objectifs de réduction des émissions sont confrontées à une forte résistance. Même le principal organisme de normalisation des entreprises, l'initiative Science Based Targets (SBTi), refuse toujours d'autoriser les sociétés à utiliser les crédits carbone pour compenser leurs émissions, malgré les pressions considérables exercées par les lobbies des entreprises [34]. Comme le reconnaît la SBTi, cela tient au fait que les crédits carbone ne peuvent être considérés comme équivalant à des réductions d'émissions (pour toute une série de raisons scientifiques et pratiques) et qu'ils sont susceptibles d'être utilisés par les entreprises pour retarder ou éviter les réductions réelles [35]. Cela signifie qu'une entreprise comme Microsoft ne devrait pas pouvoir obtenir l'aval du SBTi pour son plan « net zéro » si celui-ci inclut l'achat de crédits carbone provenant de projets de plantation d'arbres au Kenya pour compenser les émissions de ses centres de données.
Curieusement, le SBTi fait une exception pour les crédits carbone produits dans la chaîne d'approvisionnement d'une entreprise du secteur agricole, à condition qu'ils soient utilisés uniquement pour compenser les émissions de cette chaîne d'approvisionnement (Scope 3) [36]. Ces compensations sont souvent appelées « insets », et sont principalement générées par des programmes d'agriculture carbone qui prétendent séquestrer le carbone dans le sol. Par exemple, Nestlé peut compenser les émissions générées par les exploitations agricoles produisant du blé pour ses biscuits en utilisant les « insets » générés par ces mêmes exploitations (et d'autres) dans le cadre de programmes d'agriculture carbone parrainés par l'entreprise. La SBTi affirme que ces compensations intégrées « ne doivent pas être confondues avec les ''offsets'' » (compensations « classiques »), car elles ne peuvent être utilisées par les sociétés agroalimentaires que pour atteindre leurs objectifs de réduction des émissions au sein de leurs propres chaînes d'approvisionnement.
Mais les « insets » issus de l'agriculture carbone de Nestlé posent les mêmes problèmes que les « offsets » générées par Microsoft dans le domaine de la plantation d'arbres. Ces deux types de compensations reposent sur une fausse équivalence entre les absorptions et les émissions, et tous deux sont clairement utilisés par les entreprises comme une alternative aux véritables réductions d'émissions. Quel que soit le nom qu'on lui donne – « insetting » ou « offsetting » – cela reste un mécanisme permettant aux entreprises de substituer des crédits carbone créés artificiellement à de véritables réductions d'émissions.
En effet, Nestlé et d'autres membres du lobby des « insets » militent désormais pour des normes spécifiques à ce secteur qui permettraient aux entreprises d'utiliser des crédits carbone provenant de l'extérieur de leur chaîne d'approvisionnement (comme la plantation d'arbres au Kenya) pour compenser jusqu'à la moitié des émissions liées à leur chaîne d'approvisionnement, lorsque les « insets » ne suffisent pas [37].
[7] Mouvement mondial pour les forêts tropicales, « Les plantations d'arbres pour le marché du carbone : plus d'injustice pour les communautés et leurs territoires », juin 2024 : https://www.wrm.org.uy/fr/bulletins/numero-270
[8] GRAIN, « Des accapareurs de terres aux cowboys du carbone : nouvelle ruée sur les terres communautaires », septembre 2024 :https://grain.org/fr/article/7191
[9] GRAIN, « De l'accaparement des terres à l'accaparement des sols : le nouveau business de l'agriculture carbone », février 2022 : https://grain.org/fr/article/6814
[11] Bien que cela ne soit pas mentionné sur leur site web (https://regenagri.org/), d'après le registre des sociétés du Royaume-Uni, regenagri est détenu à 100 % par Solidaridad. Il existe également de nombreux programmes controversés de crédit carbone ciblant les émissions de méthane des petites fermes rizicoles en Asie, qui se concentrent sur la réduction des émissions et non sur la séquestration du carbone. Voir GRAIN, « La riziculture à faibles émissions de carbone : un permis de polluer aux dépens de la petite agriculture », juillet 2023 :https://grain.org/fr/article/7011
[12] GRAIN, « De l'accaparement des terres à l'accaparement des sols : le nouveau business de l'agriculture carbone », février 2022 : https://grain.org/fr/article/6814
[22] Pour plus d'informations sur Al Dahra et l'implication d'ADQ dans l'agriculture, voir GRAIN, « Des terres à la logistique : le pouvoir croissant des Émirats arabes unis dans le système alimentaire mondial », juillet 2024 : https://grain.org/fr/article/7173
[29] Pour en savoir plus, voir GRAIN, « Whipping up disaster : how Brazil became a lab for financial agro-investments », mai 2024 : https://grain.org/e/7138
[31] L'organisation mise en place par la filière, l'International Platform for Insetting, déclare elle-même que « la plupart des avantages climatiques de la compensation carbone intégrée sont des absorptions, c'est-à-dire du CO2 qui est séquestré dans la biomasse ou dans la matière organique du sol ». Voir en anglais sur : https://www.insettingplatform.com/wp-content/uploads/2022/03/IPI-Insetting-Guide.pdf
[37] Selon la Norme du programme de compensations intégrées (Insetting Programme Standard) de la International Platform for Insetting : « Dans le cas où les projets de compensation carbone intégrée ne couvrent pas la totalité de l'atténuation de l'empreinte de GES de l'organisation, cette dernière a le droit d'acheter des crédits de compensation pour combler l'écart. Ces crédits doivent être certifiés selon une norme reconnue (VCS, Gold Standard, Plan Vivo, Solidarity Reforestation). La proportion de compensations intégrées par rapport aux compensations classiques (« insets vs. offsets ») doit représenter au minimum 50 % de l'empreinte carbone de l'organisation pour que celle-ci puisse déclarer qu'elle a réalisé une compensation intégrée de ses émissions. »https://www.insettingplatform.com/wp-content/uploads/2020/09/INSETTING_PROGRAM_STANDARD_IPS_V2.0_Final.pdf
Tryton est basé sur une architecture trois tiers avec PostgreSQL comme base de données principale et est écrit en Python ce qui apporte une grande flexibilité et rapidité pour la customisation.
Il vient avec un ensemble de modules essentiels pour la gestion d’une entreprise, qui sont très aboutis. Il peut être complété par des modules tierces spécifiques à certaines activités (comme la gestion d’hôpital avec GNU Health, la gestion de distillerie avec Distilibre) ou permettant l’intégration à d’autres outils.
Enfin, il est utilisable à travers un client natif, un client web réactif et un client en ligne de commande. Tous ces clients sont légers et multiplateformes (Linux, BSD, Windows et macOS).
Comme la dernière annonce ici date de la version 7.2, voici une liste non-exhaustive d’améliorations notables :
Un logo peut être ajouté à la société gérée par Tryton. Celui-ci sera alors rendu sur les documents commerciaux que Tryton génère (ex: bon de commande, facture, etc.)
Les remplacements de produit sont maintenant géré automatiquement. Quand un produit, marqué comme étant remplacé par un autre, n'est plus en stock, il est remplacé sur tous les mouvements de stock. C'est utile afin de s'assurer de vider son stock existant avant de passer au nouveau produit.
Les tâches planifiées, qui sont en train d'être exécutées, sont affichées. De plus, Tryton enregistre la durée d'exécution pendant un mois afin de pouvoir détecter des anomalies.
Il est maintenant possible de configurer le serveur pour utiliser une autre commande que LibreOffice pour convertir les documents vers un autre format comme PDF. Par exemple, on peut utiliser un service externe comme document-converter
L'ORM de Tryton gère les contraintes d'exclusion basées sur les Range SQL. Ceci a permis de remplacer des contraintes écrites en Python qui verrouillaient la table.
Il est désormais possible de redimensionner les colonnes des listes aussi avec le client web. Et la taille des colonnes est sauvegardé sur le serveur par taille d'écran afin de les restaurer pour l'utilisateur à la prochaine ouverture.
Un délai de validité des devis peut être configuré. Une fois passé le délai, il n'est plus possible de convertir le devis en vente et celui-ci sera annulé automatiquement. De même, une date d'expiration de devis d'achat peut être encodée pour faciliter le suivi.
Il est maintenant possible de résoudre une plainte par la création d'un coupon de promotion.
On peut à présent enregistrer une adresse en utilisant les champs structurés. Dans ce cas, le formatage de celle-ci sera faite automatiquement par Tryton suivant le format des 222 pays connus.
Des méthodes pour faciliter la personnalisation du comportement de l'ORM ont été ajoutées afin de simplifier et d'éviter de devoir étendre les méthodes create, write et delete (qui peuvent être un peu compliquées). De plus, des champs stockés dans la base de données peuvent être définis comme étant calculés. Ils sont alors automatiquement mis à jour si leur valeur change. Ils sont principalement utilisés pour faire de la cache.
Tryton supporte maintenant les traductions des formes de pluriels (jusqu'à 4 par langue).
Une dernière chose, l'ajout en mode bêta d'un outil de chat en direct entre utilisateurs sur certains documents. Par la suite, ce chat doit évoluer pour devenir un outil de communication plus large et inclure des externes via e-mail (mais aussi d'autres supports de communication).
Cette fonctionnalité est développée via un appel à sponsors
I have got my hands on this 10 inches touchscreen from SunFounder that is made for Raspberry Pi like devices.
If you are considering adding touch capability to your Raspberry Pi project, this could be a good contender for that.
I have used a few SunFounder products in the past but the Pironman case made me their fan. And I truly mean that. This is why before I opened the package, I had a feeling that this will be a solid device.
It is a well-thought device that gives a smooth touch experience. A single power cord runs both the screen and Pi. The on-board speakers give you more than just display although they are very basic.
All the interface remain available. The best thing is that it can be used with several other SBCs too.
From 3D printing to cyberdeck to home automation, how you use it is up to you.
The $149.99 price tag is decent for the quality of the touchscreen and the out of box experience it provides for the Raspberry Pi OS.
Technical specifications
Before we get into the nitty-gritty of performance, let's look at what you're actually getting with this display:
Specification
Details
Screen Size
10 inches (diagonal)
Resolution
1280 x 800 pixels
Panel Type
IPS (In-Plane Switching)
Touch Technology
Capacitive multi-touch (up to 10 points)
Connection
HDMI for display, USB for touch function
Compatible with
Raspberry Pi 4B, 3B+, 3B, 2B, Zero W
Power Supply
DC 12V/5A power supply with built-In USB-C PD
Audio
2 speakers
Dimensions
236mm x 167mm x 20mm
Viewing Angle
178° (horizontal and vertical)
Weight
Approximately 350g
Assembling
SunFounder has a thing for assembling. Like most of their other products, the touchscreen also needs some assembling. After all, it is properly called 'a 10 -inch DIY touchscreen' so there is obviously a DIY angle here.
The assembling should not take you more than 10–15 minutes to put all the pieces together.
The assembly basically requires attaching the single board computer with the screws, taping the speakers and connecting it to the touchscreen cable.
It's actually fun to do the assembly. Not everyone will be a fan of this but I am guessing if you are into maker's electronics, you won't be unhappy with the assembly requirement.
Experiencing SunFounder DIY Touchscreen
The device is powered by a 12V/5A DC power that also powers the Raspberry Pi with 5.1V/5A. There are LED lights at the back that indicate if the Pi is turned on or not.
There is no on-board battery, in case you were wondering about that. It needs to be connected to the power supply all the time to function. Although, if you need, you can always attach a battery-powered system to it.
The display is IPS and the surface feels quite premium. Some people may find it a bit glossy and slippery but the IPS screens have the same look and feel in my experience.
Colors are vibrant, text is crisp, and the IPS panel means viewing angles are excellent.
The 10 point capacitive touch works out of the box. The touch response is quite good. I noticed that the double-click mouse action actually needs 3 quick taps. It took me some time to understand that it is the intended behavior.
My 4-years old daughter used it for playing a few games on GCompris and that worked very well. Actually, she sees the Raspberry Pi wallpaper and thinks it's her computer. I had to take the device off her hands as I didn't want her to use it as a tablet. I would prefer that she keeps on using a keyboard and mouse with her Pi.
On-screen keyboard
SunFounder claims that no drivers are required and the touchscreen is ready to be plugged in and play if you use Raspbian OS.
The official SunFounder document mentions that this package should be preinstalled in Raspbian OS but that was not the case for me. Not a major issue as the on-screen keyboard worked fine too after installing the missing package.
Before I forget, I should mention that the touchscreen also has two tiny speakers at the bottom. They are good enough for occasional cases where you need audio output. You won't need to plugin a headphone or external speakers in such cases.
But if you want anything more than that, you'll need to attach proper speakers. It really depends on what you need it for.
Dude, where is my stand?
It would have been nice to have some sort of stand with the screen. That would make it easier to use the touchscreen as a monitor on the table.
At first glance, it seems like it is more suitable as a wall mount to display your homelab dashboard or some other information.
But it's not completely impossible to use it without a dedicated stand on the desk. I used the extra M 2.5 screws to increase the length of the bottom two screws. That gave it a stand like appearance.
Little tweak to make a stand with extra screws
I thought I was smart to utilize those extra screws as a stand. Later I found out that it was intended for that purpose, as the official document also mentioned this trick.
I remember the older model of this touch screen used to have a dedicated stand.
Older model of SunFounder's Touchscreen had a dedicated stand
I still think that dedicated stand attachments would have been a better idea.
The answer always depends on what you need and what you want.
If you are on the lookout for a new touchscreen for your homelab or DIY projects, this is definitely worth a look.
Sure, the price tag is more than the official Raspberry Pi touchscreen but SunFounder's touchscreen has better quality (IPS), is bigger with better resolution, has speakers and supports more SBCs.
Basically, it is a premium device, whereas most touchscreen available on lower prices have a very toy-ish feel.
If affordability is not a concern and you need excellent touch experience for your projects, I can surely recommend this product.
Clonezilla Live maintainer Steven Shiau released today Clonezilla Live 3.2.1-28 as the latest stable version of this partition and disk imaging/cloning tool based on Debian/Ubuntu.
Coming two months after Clonezilla Live 3.2.1-9, the Clonezilla Live 3.2.1-28 release is based on the Ubuntu 25.04 (Plucky Puffin) operating system series and it's powered by Linux kernel 6.14 to offer users the best possible hardware support when running Clonezilla Live to backup their data.
This release also ships with new packages that are installed by default and therefore available on the live system to use as you need, including libfsapfs-utils, usb-modeswitch, and fscrypt, along with a new ocs-find-live-key tool that can be used with the ocs-put-log-usb tool to copy Clonezilla Live's log files when running from RAM.
On top of that, Clonezilla Live 3.2.1-28 updates the ocs-live-repository package with a new dev=///OCS_LIVE_USB option to allow users to assign the Clonezilla Live USB drive as the image repo, especially when running Clonezilla Live USB drive from RAM.
[su_quote]"The Clonezilla live USB drive has to be vFAT file system since it's used to boot in both UEFI and MBR mode. Hence, it is not a good choice for an image repo since vFAT file system has many restrictions. Better to use UUID or LABEL to assign the image repo. Improved the saving dialog menu and prompt," said developer Steven Shiau.[/su_quote]
Other than that, this release introduces a new mechanism for mitigating the random order of block devices via the ocs_1_cpu_udev boot parameter, enables support for the Btrfs file system in the drbl-ocs.conf file for compatibility with Partclone 0.3.36, and disables the devices list cache mechanism to improve performance.
Check out the release announcement for more details about the changes included in this new Clonezilla Live release. You can download Clonezilla Live 3.2.1-28 right now from the official website as a live ISO image or a USB image archived as a zip file. Clonezilla Live is only supported on 64-bit machines.
Today, the KDE Project released KDE Plasma 6.3.5 as the fifth and last maintenance update to the latest KDE Plasma 6.3 desktop environment series to address more bugs, crashes, and other issues reported by users during the five weeks since KDE Plasma 6.3.4.
KDE Plasma 6.3.5 is here to fix a black or flickering lock screen issue for NVIDIA GPU users, a visual glitch with window shadows when using Night Light on certain hardware, a KWin crash caused by GPU resets, and a regression with the Activity Switcher sidebar being mis-positioned on multi-monitor setups.
KDE's window and composite manager, KWin, received quite the attention as this release also fixes a crash that occurred when disconnecting a laptop from certain docking stations, an issue causing it to schedule constant screen repaints while the screen was dimmed, which wasted resources, and several other crashes.
In addition, KDE Plasma 6.3.5 improves support for multi-screen setups by addressing an issue where the UI would inappropriately show the settings of a different screen when reverting a change to the other screen's settings, as well as a Plasma crash related to power-cycling screens.
This release also improves printing support by offering users the option to set a new printer as the default one when adding multiple printers, adds support for Qt 6.8.3 and Qt 6.9 for the Meta+P shortcut for opening the screen chooser overlay, and fixes several bugs related to notifications not moving to new positions.
Moreover, KDE Plasma 6.3.5 fixes a bug that caused notifications that included the < character to cut off all the following text, fixes a visual glitch on the Recent Files page in System Settings to highlight grid items when the whole grid view is disabled, and fixes a bug causing the Sticky Notes widgets to forget their custom size when resizing them.
The Plasma Discover package manager was improved as well in this release by addressing an issue with the “Still looking…” message being displayed un-centered, an issue with the header text for offline upgrades being displayed incorrectly at very narrow window widths, and a semi-common yet random-seeming crash.
KDE Plasma 6.3.5 also improves the Task Manager widget so that the group dialog pop-ups no longer rotate 180° when using reversed mode on a vertical panel, and makes the "audio is playing" icons less blurry when using a fractional scale factor.
Last but not least, KDE Plasma 6.3.5 fixes a bug that could cause the relevant numbers in a newly created Weather widget to show the wrong values until restarting, as well as an issue where the tooltip text in Plasma could be unreadable when using certain non-default color schemes.
Check out the full changelog for more details about the changes included in this release. Meanwhile, keep an eye on the stable software repositories of your favorite GNU/Linux distributions for the KDE Plasma 6.3.5 packages and update your installations as soon as possible for a more stable and reliable Plasma desktop experience.
As of May 1st, 2025, Canonical has officially opened the development of Ubuntu 25.10 (codename Questing Quokka), and now they have published the first daily build ISO images for early adopters, application developers, and general public testing.
As expected, the first Ubuntu 25.10 daily builds are based on the previous Ubuntu release, Ubuntu 25.04 (Plucky Puffin), which arrived last month on April 17th, which means that they include the same core components and software versions as the Plucky Puffin release, such as Linux kernel 6.14 and GNOME 48 desktop.
During the six-month-long development cycle, the Ubuntu 25.10 daily build ISOs will be updated with many highly anticipated GNU/Linux technologies, such as the upcoming Mesa 25.1 graphics stack and Linux 6.17 kernel series, as well as the upcoming GNOME 49 desktop environment.
The toolchain will be updated to recent technologies like GCC 15, GNU Binutils 2.45, Python 3.13, LLVM 20, Boost 1.88, and others. Also, it looks like Ubuntu 25.10 will be the first major Linux distribution to adopt sudo-rs as the default implementation of sudo.
You can download the first Ubuntu 25.10 daily build ISO images from the official website. Daily builds of Kubuntu, Xubuntu, Lubuntu, and the rest of the official Ubuntu flavors are also available for download here with the same desktop environments used by default in Ubuntu 25.04.
However, you should keep in mind that these are pre-release versions that may contain bugs and other issues preventing you from having a stable Ubuntu experience. Therefore, DO NOT install them on a production machine!
The final release of Ubuntu 25.10 (Questing Quokka) is expected on October 9th, 2025. Until then, the beta version of Ubuntu 25.10 is expected on September 18th, and the Release Candidate (RC) version should arrive on October 2nd, 2025.
Two “Ubuntu Testing Week” events are also scheduled for June 26th and August 21st, 2025, respectively. During these “Ubuntu Testing Week” events, Canonical expects the community to test drive the upcoming Ubuntu release and report bugs.
Paris, le 7 mai 2025 – Le Conseil National du Logiciel Libre (CNLL) salue la publication du livre blanc "Deploying the EuroStack: What Needs to Happen Now" par l'Initiative EuroStack. Ce document, qui fait suite à la lettre ouverte de mars dernier cosignée par le CNLL et plus de 200 dirigeants du secteur, détaille des mesures actionnables pour bâtir une Europe numériquement souveraine. Le CNLL y voit une feuille de route pragmatique, alignée avec sa mission de défense et de promotion du logiciel libre, des standards ouverts et de l'interopérabilité opposable.
Face à une dépendance technologique massive envers les acteurs non-européens, chiffrée à 264 milliards d'euros de flux annuels vers les États-Unis pour le cloud et les logiciels (étude Cigref/Asterès), le livre blanc d'EuroStack propose des solutions concrètes pour inverser la tendance. Le CNLL soutient particulièrement l'accent mis sur la nécessité de réformer la commande publique ("Acheter Européen") pour qu'elle favorise réellement les solutions européennes, notamment celles issues de l'écosystème open source, et de définir clairement ce qu'est un fournisseur "européen" en se fondant sur des critères objectifs de contrôle et de contribution à l'écosystème.
La proposition "Vendre Européen" insiste sur l'accroissement de la visibilité et de l'interopérabilité des solutions européennes, notamment via la promotion active de l'open source et des standards ouverts. Pour le CNLL, ces éléments sont cruciaux : le logiciel libre, par sa nature transparente, collaborative et modulaire, est un levier stratégique pour éviter le verrouillage propriétaire, garantir la réversibilité et permettre à un écosystème diversifié de PME et ETI européennes de prospérer. La création d'un "Hub d'Intelligence de Marché" et le soutien à la collaboration au sein de l'écosystème sont des mesures que le CNLL appelle de ses vœux.
Concernant le volet "Financer Européen", le CNLL apprécie l'approche ciblée, visant à mobiliser les capitaux existants et à créer des incitations, plutôt qu'un nouveau schéma de dépenses centralisé. L'idée d'un "Fonds EuroStack" pour combler des lacunes spécifiques, notamment en soutenant les PME de la filière open source et la migration vers des solutions ouvertes, est une piste pertinente.
"Ce livre blanc d'EuroStack concrétise l'appel que nous avions lancé en mars. Il est temps de passer des constats aux actes pour construire une véritable souveraineté numérique européenne," déclare Stefane Fermigier, co-Président du CNLL et co-auteur du livre blanc. "Le CNLL se félicite que les principes de l'open source, de l'interopérabilité et des standards ouverts soient reconnus comme des piliers essentiels de cette stratégie. Notre filière européenne du Logiciel Libre est prête à relever le défi, à condition que les politiques publiques lui donnent enfin les moyens de concurrencer équitablement les solutions propriétaires dominantes. Ce document fournit des pistes claires pour y parvenir."
Le CNLL continuera de porter ces propositions auprès des décideurs et de l'ensemble de l'écosystème, convaincu que l'avenir numérique de l'Europe se construira sur les fondations solides de la liberté, de l'ouverture et de la collaboration.
Le CNLL, Union des Entreprises du Logiciel Libre et du Numérique Ouvert, est l’instance représentative de la filière du logiciel libre en France. Issu du groupement de 12 clusters régionaux, il représente plus de 300 entreprises “pure players” (spécialisées ou avec une activité significative dans le logiciel libre et l’open source): éditeurs, intégrateurs, sociétés de conseil, etc. Il assure la promotion de l´écosystème professionnel du logiciel libre, de son offre de logiciels et de services, de ses atouts spécifiques, et de ses besoins, notamment en termes d’emploi et de formation. Il permet à la communauté des acteurs de la filière d’échanger et de travailler ensemble au développement du marché, dans le respect de valeurs communes.
Sur Windows, vous avez de nombreux moyens et outils pour éplucher les traces de l'activité d'un utilisateur, pour des analyses et audits Forensics post-mortem.
Word wrap automatically breaks a long line of text so it fits within your current editor window, without you needing to scroll horizontally. It doesn’t add line breaks to your file; it just wraps it visually.
Picture this: You’re writing a long JavaScript function or a long SQL query. Without word wrap, you’d be endlessly dragging that horizontal scrollbar. With it, everything folds neatly within view.
This is especially useful when:
You're working on a small screen.
You want cleaner screenshots of your code.
You prefer not to lose track of long lines.
Now, let's see how to turn it on or off when needed.
Method 1: The quickest toggle - Alt + Z
Yep, there’s a shortcut for it!
Open any file in VS Code.
Press Alt + Z on your keyboard.
And that’s it! Word wrap is toggled. Hit it again to switch it off.
Method 2: Use the command palette
Prefer something a bit more visual? The Command Palette is your go-to.
Press Ctrl + Shift + P (or Cmd + Shift + P on macOS).
Type Toggle Word Wrap.
Click the option when it appears.
This is ideal if you’re not sure of the shortcut or just want to double-check before toggling.
Method 3: Set a default from settings
Want word wrap always on (or always off) when you open VS Code? You can change the default behavior.
1. Go to File > Preferences > Settings
2. Search for “word wrap.”
3. Under Editor: Word Wrap, choose from the following options:
off: Never wrap.
on: Always wrap.
wordWrapColumn: Wrap at a specific column number.
bounded: Wrap at viewport or column, whichever is smaller.
💡
What’s “wordWrapColumn” anyway? It lets you define a column (like 20) at which VS Code should wrap lines. Great for keeping things tidy in teams with coding standards.
You can also tweak "editor.wordWrap" in settings.json if you prefer working directly with config files.
Wrapping up!
Word wrap might seem like a tiny detail, but it’s one of those “small things” that can make coding a lot more pleasant. Take the indentation settings for example, another crucial piece for code readability and collaboration. Yes, the tabs vs spaces debate lives on 😄
We’ll continue exploring more quick yet powerful tips to help you make the most of VS Code.
Until then, go ahead and wrap those words your way.
Diffusion et interaction sur https://www.twitch.tv/adrienlinuxtricks
Live consacré à Linux From Scratch
--------
Liens : https://www.fr.linuxfromscratch.org
III. Construction des outils croisés LFS et des outils temporaires
7. Entrée dans le chroot et construction des outils temporaires supplémentaires
Introduction
Changement du propriétaire
Préparer les systèmes de fichiers virtuels du noyau
Entrer dans l'environnement chroot
Création des répertoires
Création des fichiers et des liens symboliques essentiels
Gettext-0.24
Bison-3.8.2
Perl-5.40.1
Python-3.13.2
Texinfo-7.2
Util-linux-2.40.4
Nettoyage et Sauvegarde du système temporaire
---------
Infos utiles comme d'hab :
Quelle distribution j'utilise ?
Fedora Linux avec GNOME
Quel est mon navigateur Internet : Vivaldi
Où me retrouver ? Tout est dans le bandeau de la page d'accueil de la chaine
Mon site web : https://www.linuxtricks.fr
Ma config PC Fixe :
Carte mère X470 GAMING PRO
AMD Ryzen 5 2600X
16Gb RAM DDR4
AMD Radeon RX 560 (pilote libre amdgpu)
SSD 860 EVO 500GB + SSD 860 QVO 2To
Micro BIRD UM1
Les modèles d’IA les plus récents reposent sur des datacenters massifs, dont la consommation électrique explose. En 2022, ces infrastructures représentaient déjà 1 % de la demande mondiale d’électricité. À horizon 2026, cette part pourrait atteindre 4 %, dans un […]
La souveraineté numérique est un enjeu dans les cercles professionnels et pour les politiques publiques. L‘entreprise française ézéo lance Qui héberge les mails ?, un nouvel outil gratuit permettant de connaître l’hébergeur du courrier électronique d’un nom de domaine. Intrusif, […]
On me dit assez régulièrement que dans Dotclear, avec l’un des deux éditeurs, tel bouton de leur barre d’outils respective ne permet pas de faire telle ou telle chose, que tel attribut est manquant, que la syntaxe diffère de ce qui était attendu et patali et patala…
Sachez tout de même braves gens, que ces fichus boutons ne sont là que pour vous faciliter la vie, vous pré-macher le boulot, vous épargner de conserver en mémoire telle ou telle syntaxe, mais in fine vous conservez la main sur le contenu final.
Rien ne vous empêche de modifier, supprimer, corriger ce qui a été proposé par l’appui sur le bouton, passez en mode source si besoin, si vous éditez en HTML.
Pour résumer, les boutons sont là pour aider, mais le résultat n’est pas gravé dans le marbre, c’est vous the final boss!
And now it seems that Ubuntu is relying heavily on Rust re-implementations. In the upcoming Ubuntu 25.10, you'll see GNU Coreutils replaced with Rust-based uutils. The classic sudo command will also be replaced by Rust-based sudo-rs.
And other Linux news, tips, and, of course, memes!
This edition of FOSS Weekly is supported by AWS Valkey.
❇️ Scale Your Real-Time Apps with Amazon ElastiCache Serverless for Valkey
What’s Valkey? Valkey is the most permissive open source alternative to Redis stewarded by the Linux Foundation, which means it will always be open source.
What’s Amazon ElastiCache Serverless for Valkey? It’s a serverless, fully managed caching service delivering microsecond latency performance at 33% lower cost than other supported engines.
Even better, you can upgrade from ElastiCache for Redis OSS to ElastiCache for Valkey with zero downtime.
Don’t just take our word for it – customers are already seeing improvements in speed, responsiveness, and cost.
I have always considered Kazam to be the best screen recorder for Linux. For the past several years, it didn't see any development. But finally, there is Kazam 2.0 with newer features now.
🎟️ Free Webinar | How SOC Teams Save Time with ANY.RUN: Action Plan
Trusted by 15,000+ organizations, ANY.RUN knows how to solve SOC challenges. Join team leads, managers, and security pros to learn expert methods on how to:
With GNOME Tweaks, you can set app window focus from "Click to Focus" to "Focus on Hover". For doing that, open GNOME Tweaks and go into the Windows tab. Here, under Window Focus, click on "Focus on Hover". Now, enable the "Raise Windows When Focused" toggle button.
With this, whenever you hover over another window, it will be automatically focused. The window won't lose focus when the cursor is on the desktop. To revert to stock behavior, click on the "Click to Focus" option.
🤣 Meme of the Week
The list never ends! 🥲
🗓️ Tech Trivia
After Commodore declared bankruptcy in 1994, German company Escom AG bought its name and tech for $10 million, aiming to revive the iconic Amiga, but eventually sold the rights instead.
L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs visiteurs ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».
Je continue donc ma petite revue de presse mensuelle. Avertissement : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations : dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.
Même politique éditoriale que Zvi : je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.
Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :
System Card : une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
Jailbreak : un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme « ignore les instructions précédentes et… ».
We’re sharing the first models in the Llama 4 herd, which will enable people to build more personalized multimodal experiences.
Llama 4 Scout, a 17 billion active parameter model with 16 experts, is the best multimodal model in the world in its class and is more powerful than all previous generation Llama models, while fitting in a single NVIDIA H100 GPU. Additionally, Llama 4 Scout offers an industry-leading context window of 10M and delivers better results than Gemma 3, Gemini 2.0 Flash-Lite, and Mistral 3.1 across a broad range of widely reported benchmarks.
Llama 4 Maverick, a 17 billion active parameter model with 128 experts, is the best multimodal model in its class, beating GPT-4o and Gemini 2.0 Flash across a broad range of widely reported benchmarks, while achieving comparable results to the new DeepSeek v3 on reasoning and coding—at less than half the active parameters. Llama 4 Maverick offers a best-in-class performance to cost ratio with an experimental chat version scoring ELO of 1417 on LMArena.
These models are our best yet thanks to distillation from Llama 4 Behemoth, a 288 billion active parameter model with 16 experts that is our most powerful yet and among the world’s smartest LLMs. Llama 4 Behemoth outperforms GPT-4.5, Claude Sonnet 3.7, and Gemini 2.0 Pro on several STEM benchmarks. Llama 4 Behemoth is still training, and we’re excited to share more details about it even while it’s still in flight.
Download the Llama 4 Scout and Llama 4 Maverick models today on llama.com and Hugging Face. Try Meta AI built with Llama 4 in WhatsApp, Messenger, Instagram Direct, and on the web.
Traduction:
Nous partageons les premiers modèles de la famille Llama 4, qui permettront aux utilisateurs de créer des expériences multimodales plus personnalisées.
*Llama 4 Scout, un modèle de 17 milliards de paramètres actifs avec 16 experts, est le meilleur modèle multimodal au monde dans sa catégorie et est plus puissant que tous les modèles Llama des générations précédentes, tout en tenant sur un seul GPU NVIDIA H100. De plus, Llama 4 Scout offre une fenêtre de contexte de 10M, leader dans l’industrie, et délivre de meilleurs résultats que Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 sur un large éventail de benchmarks largement reconnus.
Llama 4 Maverick, un modèle de 17 milliards de paramètres actifs avec 128 experts, est le meilleur modèle multimodal dans sa catégorie, surpassant GPT-4o et Gemini 2.0 Flash sur un large éventail de benchmarks largement reconnus, tout en obtenant des résultats comparables au nouveau DeepSeek v3 sur le raisonnement et le codage — avec moins de la moitié des paramètres actifs. Llama 4 Maverick offre un rapport performance/coût inégalé avec une version expérimentale de chat obtenant un ELO de 1417 sur LMArena.
Ces modèles sont nos meilleurs à ce jour grâce à la distillation de Llama 4 Behemoth, un modèle de 288 milliards de paramètres actifs avec 16 experts qui est notre plus puissant à ce jour et parmi les LLM les plus intelligents au monde. Llama 4 Behemoth surpasse GPT-4.5, Claude Sonnet 3.7 et Gemini 2.0 Pro sur plusieurs benchmarks STEM. Llama 4 Behemoth est toujours en phase d’entraînement, et nous sommes impatients de partager plus de détails à son sujet même pendant qu’il est encore en développement.
Téléchargez les modèles Llama 4 Scout et Llama 4 Maverick dès aujourd’hui sur llama.com et Hugging Face. Essayez Meta AI construit avec Llama 4 dans WhatsApp, Messenger, Instagram Direct et sur le web.
Comme DeepSeek v3, et contrairement aux précédentes itérations de Llama (Llama 2, Llama 3), Llama 4 fait le pari d’une architecture différente, « Mixture of Experts » (MoE) (en français: mélange d’experts ?). Pour simplifier, au lieu de faire un seul modèle, on en fait plein, avec un autre modèle qui décide (dynamiquement) de l’importance à donner à chaque modèle. Par exemple, Llama 4 Maverick contient 400 milliards de paramètres, découpés en 128 modèles de 17 milliards de paramètres. Un bon article sur HuggingFace explique plus en détails cette architecture.
Autre différence par rapport aux tendances actuelles, ce n’est pas un modèle de raisonnement.
Au niveau de la sécurité des modèles : pour ne pas changer, Meta fait partie des mauvais élèves ; pas d’évaluation tierce publiée, pas de « System Card ». Évidemment jailbreaké dans la journée (mais ceci n’est pas spécifique à Meta).
Sur les benchmarks cités par Meta, cela semble un modèle au niveau de l’état de l’art en termes de capacité. Les benchmarks tiers, par contre, semblent donner une image complètement différente :
Vous pouvez voir plus de benchmarks indépendants dans l’article de Zvi (cf les liens ci-dessous).
Tout ceci semble pointer vers: ce ne sont pas de mauvais résultats en soi, dans l’absolu ; mais comparé à l’état de l’art (Claude 3.7 avec raisonnement, ChatGPT o3-mini, ou Gemini 2.5), et mis en face de la taille immense du modèle (400 milliards de paramètres, ce qui de fait le rend inutilisable sur du matériel grand public), ce sont des résultats décevants.
À noter que Llama 4 Behemoth (2000 milliards de paramètres !) n’a pas encore été publié.
Today, we’re launching three new models in the API: GPT‑4.1, GPT‑4.1 mini, and GPT‑4.1 nano. These models outperform GPT‑4o and GPT‑4o mini across the board, with major gains in coding and instruction following. They also have larger context windows—supporting up to 1 million tokens of context—and are able to better use that context with improved long-context comprehension. They feature a refreshed knowledge cutoff of June 2024.
Traduction :
Aujourd’hui, nous lançons trois nouveaux modèles dans l’API : GPT-4.1, GPT-4.1 mini et GPT-4.1 nano. Ces modèles surpassent GPT-4o et GPT-4o mini sur tous les plans, avec des améliorations majeures en matière de codage et de suivi d’instructions. Ils disposent également de fenêtres de contexte plus larges — prenant en charge jusqu’à 1 million de tokens de contexte — et sont capables de mieux utiliser ce contexte grâce à une compréhension améliorée des contextes longs. Ils bénéficient d’une mise à jour de leur base de connaissances jusqu’à juin 2024.
Le modèle n’est disponible que par accès API. Le but n’est pas d’avancer l’état de l’art sur les capacités, mais de fournir des points plus intéressants sur la courbe performances/prix. À ce titre, pas de System Card ou d’évaluation tierce publiée. Vous connaissez la chanson, jailbreak immédiat. Sur les benchmarks (officiels comme tiers), la modeste promesse semble tenue : 4.1 est une légère amélioration sur 4o, mais 4.1-mini est presque aussi performant à une fraction du prix (5x moins cher).
Il existe encore une version moins chère (20x !), 4.1-nano, mais la dégradation de performance est significative.
À l’inverse de 4.1, o3 et o4-mini, eux, ont l’ambition de faire avancer l’état de l’art. L’annonce officielle :
Today, we’re releasing OpenAI o3 and o4-mini, the latest in our o-series of models trained to think for longer before responding. These are the smartest models we’ve released to date, representing a step change in ChatGPT's capabilities for everyone from curious users to advanced researchers. For the first time, our reasoning models can agentically use and combine every tool within ChatGPT—this includes searching the web, analyzing uploaded files and other data with Python, reasoning deeply about visual inputs, and even generating images. Critically, these models are trained to reason about when and how to use tools to produce detailed and thoughtful answers in the right output formats, typically in under a minute, to solve more complex problems. This allows them to tackle multi-faceted questions more effectively, a step toward a more agentic ChatGPT that can independently execute tasks on your behalf. The combined power of state-of-the-art reasoning with full tool access translates into significantly stronger performance across academic benchmarks and real-world tasks, setting a new standard in both intelligence and usefulness.
Traduction :
Aujourd’hui, nous lançons OpenAI o3 et o4-mini, les derniers modèles de notre série o, entraînés à réfléchir plus longtemps avant de répondre. Ce sont les modèles les plus intelligents que nous ayons publiés à ce jour, représentant un changement majeur dans les capacités de ChatGPT pour tous, des utilisateurs curieux aux chercheurs avancés. Pour la première fois, nos modèles de raisonnement peuvent utiliser et combiner de manière agentique tous les outils au sein de ChatGPT — cela inclut la recherche sur le web, l’analyse de fichiers téléchargés et d’autres données avec Python, le raisonnement approfondi sur les entrées visuelles, et même la génération d’images. Plus important encore, ces modèles sont entraînés à réfléchir à quand et comment utiliser les outils pour produire des réponses détaillées et réfléchies dans les bons formats de sortie, généralement en moins d’une minute, afin de résoudre des problèmes plus complexes. Cela leur permet de traiter plus efficacement des questions à multiples facettes, une étape vers un ChatGPT plus agentique qui peut exécuter indépendamment des tâches en votre nom. La puissance combinée d’un raisonnement à la pointe de la technologie avec un accès complet aux outils se traduit par des performances significativement améliorées dans les évaluations académiques et les tâches du monde réel, établissant une nouvelle norme en termes d’intelligence et d’utilité.
Sur les performances, les benchmarks (y compris privés) indiquent une avancée claire, prenant la première place presque partout. En particulier, le benchmark fiction.live peut être considéré comme résolu pour la première fois, avec un 100% à presque tous les niveaux.
Au niveau des fonctionnalités, o3 et o4-mini peuvent faire des recherches sur internet et utiliser Python pour analyser un problème (y compris dans la chaîne de raisonnement) ; les retours subjectifs affirment que o3 est exceptionnellement efficace pour utiliser les outils à sa disposition de manière pertinente.
Une tendance jusqu’ici était que les modèles plus avancés étaient de moins en moins susceptibles d’hallucinations, ce qui donnait espoir que ce problème allait, à terme et avec l’amélioration des modèles, se résoudre de lui-même. Mauvaise nouvelle ici : o3 a un taux d’hallucinations double de o1 (sur un benchmark conçu pour en éliciter). Les retours subjectifs confirment cette observation : o3 ment éhontément très régulièrement.
Sur la sécurité des modèles, OpenAI suit sa procédure habituelle de publier sa System Card, avec deux évaluations tierces, une d’Apollo Research (dans l’appendice) et une autre de METR, avec un bémol que METR n’a eu accès qu’à une pré-version, et seulement trois semaines avant la publication. La conclusion est que le modèle n’est pas encore à « risque élevé », mais s’en rapproche.
Dans les nouvelles sur l’IA de mars, on pouvait trouver une section « Les modèles continuent de tricher ». Les rapports d’Apollo Research et de METR confirment, où le modèle a été attrapé à tricher dans 1-2% des cas chez METR.
AI 2027: une tentative de futurologie
La prédiction est un exercice difficile, surtout quand il s’agit du futur. AI 2027 est une tentative de prédiction qui a fait parler d’elle. Pourquoi ?
D’abord par les personnalités impliquées, en particulier :
Daniel Kokotajlo est un ex-ingénieur d’OpenAI, qu’il a quitté en tant que « whistleblower », dénonçant une culture du secret et de peu d’importance accordée à la sécurité (à l’époque, le New York Times lui a accordé un article intitulé OpenAI Insiders Warn of a ‘Reckless’ Race for Dominance — « Des initiés d’OpenAI mettent en garde contre une course “imprudente” à la domination »). En 2021, il publie What 2026 looks like, qui s’est révélé largement prescient (pour une évaluation rétrospective tierce, voir cet article).
Eli Lifland est un chercheur qui s’intéresse de manière globale a « comment développer de meilleures méthodes générales de prédiction », qu’il pratique activement sur des marchés de prédiction ; un résumé de ses performances peut être trouvé sur son blog.
Ensuite, par sa méthodologie. Le but de l’initiative n’est pas de donner une prédiction, brute de décoffrage et au doigt mouillé, mais de créer un modèle quantitatif, d’estimer les paramètres le plus possible à partir de la littérature existante (même si c’est loin d’être toujours possible), afin de créer une base de discussion pour identifier les plus gros points de désaccords.
Enfin, par ses résultats, qui surprennent beaucoup de monde, qui prévoient l’arrivée d’une superintelligence pour 2028-2029.
L’initiative a reçu le support, entre autres, de Yoshua Bengio, ce qui a aidé à lancer la discussion :
I recommend reading this scenario-type prediction by @DKokotajlo and others on how AI could transform the world in just a few years. Nobody has a crystal ball, but this type of content can help notice important questions and illustrate the potential impact of emerging risks.
Traduction :
Je recommande de lire cette prédiction de type scénario par @DKokotajlo et d’autres sur comment l’IA pourrait transformer le monde en seulement quelques années. Personne n’a de boule de cristal, mais ce type de contenu peut aider à repérer des questions importantes et illustrer l’impact potentiel des risques émergents
Google publie deuxpapiers dans Nature pour évaluer la performance de l’IA sur le diagnostic médical. Dans cette expérience, l’IA surpasse le médecin humain, au point que IA + humain a des performances pires que l’humain seul.
GPT-4o Responds to Negative Feedback: une mise à jour de GPT-4o l’a pour quelques jours rendu extrêmement flatteur envers l’utilisateur, l’écroulant sous les compliments quelle que soit la requête. À des niveaux malsains (par exemple, où la requête en question a tous les signes d’un épisode psychotique…). OpenAI a depuis annulé la mise à jour, mais l’article entre plus en détails sur l’incident. Si vous n’ouvrez qu’un article dans la section « pour aller plus loin », je vous recommande celui-ci.
AI CoT Reasoning Is Often Unfaithful: une analyse du papier d’Anthropic sur la sécurité des modèles, qui montre que les chaines de pensée dans les modèles de raisonnement ne reflètent pas toujours fidèlement le raisonnement réel derrière la réponse.
You Better Mechanize: sur le lancement de Mechanize, une entreprise qui a comme objectif d’apporter l’AI dans le « monde réel » pour automatiser l’économie.
Nous continuons sur notre lancée de récompenser celles et ceux qui chaque mois contribuent au site LinuxFr.org (dépêches, commentaires, logo, journaux, correctifs, etc.). Vous n’êtes pas sans risquer de gagner un livre des éditions Eyrolles, ENI et D-Booker. Voici les gagnants du mois d'avril 2025 :
Ce mois-ci, aucun livre sélectionné ! Les récipiendaires ont décliné poliment, soit n'ont pas répondu. Cela faisait très longtemps que ce n'était pas arrivé !
N’oubliez pas de mettre une adresse de courriel valable dans votre compte ou lors de la proposition d’une dépêche. En effet, c’est notre seul moyen de vous contacter que ce soit pour les lots ou des questions sur votre dépêche lors de sa modération. Tous nos remerciements aux contributeurs du site ainsi qu’aux éditions Eyrolles, ENI et D-Booker.
UE-based Linux hardware vendor Slimbook announced today the launch of Kymera Black as the next generation of their Linux desktop computer designed for creators, gamers, and hardware enthusiasts.
Slimbook Kymera Black is designed to adapt to the needs of every user, offering them a high level of customization and configurability, without compromising power and reliability. It features a versatile and innovative modular design ideal for professional or gaming use.
The Kymera Black features a high-density matte black metal chassis with removable panels, washable dust filters, front-accessible ports, and a solid structure that combines tempered glass and metal side panels, along with the option to add an 8-inch front display for monitoring temperature, speed, or component performance in real time.
[su_quote]"At Slimbook, we believe every creation should speak for itself. This desktop stands out thanks to its vertical engraving inspired by circuit patterns, a small emperor penguin, and our signature phrase: “Be one of us.” A subtle signature that connects with our community."[/su_quote]
Slimbook Kymera Black comes with AMD or Intel configurations featuring up to AMD Ryzen 9 and up to Intel Ultra 9 processors, and supports up to 192GB 6000 MHz DDR5 RAM, up to 4TB NVMe 5.0 SSD storage, up to 80TB HDD storage, up to Wi-Fi 7 and 2.5G Ethernet connectivity, and up to 1200W Platinum power supply.
The system comes pre-installed with either the Ubuntu-based Slimbook OS featuring the GNOME or KDE Plasma desktop environments, or Kubuntu, Xubuntu, Ubuntu MATE, KDE neon, Debian GNU/Linux, elementary OS, Pop!_OS Linux, Linux Mint, Fedora Linux, openSUSE Linux, Manjaro Linux, Endeavour OS, and Lliurex.
The price starts from 749.00 € (~$851 USD) for the AMD configuration with AMD Ryzen 5 7600X, 16GB 6000Mhz DDR5, 500GB NVMe 4.0 SSD storage, medium-range cooling, and 500W 80 Bronze power supply, or from 779.00 € (~$885 USD) for the Intel configuration with Intel Core i5 14600K.
You can configure and buy the Slimbook Kymera Black desktop computer right now from the official website.
The Raspberry Pi Foundation announced today a new version of their Debian-based Raspberry Pi OS Linux distribution for Raspberry Pi computers that introduces some new features, better touchscreen handling, and various Wayland improvements.
The new Raspberry Pi OS release improves screen locking by adding a custom front end that gives them a bit more feedback as to what is happening, while allowing them to lock the screen by pressing Ctrl+Alt+L, or by via the 'Lock Screen' option in the ‘Shutdown…’ dialog.
There's also a new Printers app that lets you connect to and control printers, as a replacement for the system-config-printer application. Moreover, the new Raspberry Pi OS release promises better handling of touchscreens in a Wayland environment by allowing users to choose between mouse emulation or native touchscreen behaviour via Touchscreen > Mode in the Screen Configuration app.
[su_quote]"The main disadvantage of no longer using mouse emulation is that it isn’t possible to double-click by tapping the screen twice, and this makes navigation in the file manager rather difficult," said Simon Long. "There are a couple of workarounds specific to the file manager: you can enable ‘Open files with single click’ in the file manager preferences, or use a tap-and-hold to open the context-sensitive menu and then choose ‘Open’."[/su_quote]
Moreover, touchscreen users will get an updated Squeekboard virtual keyboard that lets them choose the screen on which it is shown when using multiple monitor configurations via the Display tab on the Raspberry Pi Configuration app.
Among other noteworthy changes, the new Raspberry Pi OS release separates console (CLI) and desktop auto login options, allowing users to choose between them in the Raspberry Pi Configuration and raspi-config apps, updates the default Labwc window manager for Wayland to a newer release (v0.8.1), and bumps the kernel to the long-term supported Linux 6.12 LTS series.
This release also optimizes the startup of the wf-panel-pi application that's in charge of the taskbar in the Wayland session, which leads to faster boot times, and prevents the zenity tool from creating prompts and dialogs from the command line, which leads to faster startup times.
You can download the new Raspberry Pi OS release right now from the official website. Raspberry Pi OS supports all Raspberry Pi models, including Raspberry Pi 1A+, 1B+, 2B, 3B, 3B+, 3A+, 4B, 400, CM1, CM3, CM3+, CM4, CM4S, Zero, Zero W, and Zero 2 W.
Existing Raspberry Pi OS users need only to update their installations by running the sudo apt update && sudo apt full-upgrade commands below in a terminal emulator or by using the built-in graphical package updater. If you're system is up-to-date, you're running the latest Raspberry Pi OS version (2025-05-06).
Fwupd 2.0.9 is out today as the ninth maintenance update to the latest fwupd 2.0 release of this open-source Linux firmware update utility with support for more devices, new features, and bug fixes.
Coming a month after fwupd 2.0.8, this release introduces support for Intel Arc 'Battlemage' GPUs, the ability to allow installing multiple database certificate updates at the same time, support for showing what certificate signed the EFI authenticated variable, new documentation about updating the KEK and database, as well as the ability to use readline to look up inputs from user, and make it optional.
Fwupd 2.0.9 also adds several devices with broken firmware to the UEFI dbx blocklist, revamps the MEI code to allow devices to use multiple interfaces, rewrites the ModemManger plugin to be simpler and more supportable, simplifies the parsing of USB descriptors, and includes more output when using the fwupdtool get-devices --json command.
On top of that, this release also fixes a crash that occurred when installing some Wacom firmware types, a crash that occurred when parsing uevents that aren't KEY=VALUE, a parsing issue with the DFU descriptor when not using the libusb library, a PK and KEK enumeration failure on some systems, and SMBIOS parsing for ROM sizes equal to or larger than 16MiB.
Starting with this release, fwupd no longer enumerates non-updatable OptionROM devices, no longer exports Redfish backup partitions as devices, includes a resolution for more of the HSI failures, no longer allows updating updatable-hidden devices with the fwupdtool command.
It also now requires a reboot after updating Intel CVS devices, properly constructs the authenticated URI when using FirmwareBaseURI, recognizes very old dbx hashes to allow upgrades, and properly handles Redfish location redirects when installing firmware.
Check out the release notes on the project’s GitHub page for more details about the changes included in fwupd 2.0.9, which you can download as a source tarball from the same location. Of course, it is recommended that you install fwupd from the stable software repositories of your GNU/Linux distribution.
The Mesa 25.1 open-source graphics stack has been released today as a major update with new features, improvements for the built-in open-source graphics drivers, and better support for many video games.
Highlights of Mesa 25.1 include a fully mainlined Asahi driver as its UAPI was merged into the kernel, support for Mali G720/G925 GPUs in the Panfrost driver, YCbCr, dualSrcBlend, and Vulkan 1.2 support in the PanVK driver for Mali v10+ GPUs (Gxxx), and Zink/NVK as the default driver for NVIDIA GPUs, finally replacing the old nouveau driver.
Mesa 25.1 also improves the V3D graphics driver used for Raspberry Pi devices with support for the EXT_shader_framebuffer_image_fetch, EXT_shader_framebuffer_image_fetch_coherent, KHR_blend_equation_advanced, and KHR_blend_equation_advanced_coherent extensions.
On top of that, the Radeon RADV Vulkan driver received support for the VK_EXT_device_memory_report and VK_EXT_sample_locations Vulkan extensions, the NVK Vulkan driver for NVIDIA GPUs received support for the VK_MESA_image_alignment_control Vulkan extension, and the Etnaviv driver for the Vivante GCxxx series of embedded GPUs received support for the KHR_partial_update extension.
PanVK, Collabora's open-source Vulkan driver for ARM Mali GPUs, received support for numerous new Vulkan extensions, including VK_KHR_depth_stencil_resolve, VK_KHR_separate_depth_stencil_layouts, VK_EXT_separate_stencil_usage, VK_KHR_imageless_framebuffer, VK_KHR_uniform_buffer_standard_layout, VK_EXT_border_color_swizzle, VK_KHR_display, VK_EXT_display_control, VK_KHR_line_rasterization, VK_EXT_line_rasterization, VK_KHR_shader_float_controls, VK_KHR_dynamic_rendering_local_read, VK_KHR_format_feature_flags2, and VK_EXT_direct_mode_display.
Only for Mali v10+ GPUs, the PanVK driver also received support for the VK_KHR_sampler_ycbcr_conversion, VK_EXT_ycbcr_2plane_444_formats, VK_KHR_shader_subgroup_uniform_control_flow, VK_KHR_shader_maximal_reconvergence, VK_KHR_shader_subgroup_extended_types, VK_KHR_shader_float_controls2, VK_KHR_spirv_1_4, VK_EXT_subgroup_size_control, and VK_EXT_ycbcr_image_arrays Vulkan extensions.
On top of that, PanVK also received support for storagePushConstant16, storageInputOutput16, shaderFloat16, shaderStorageImageExtendedFormats, shaderImageGatherExtended, textureCompressionBC, storageBuffer8BitAccess, storagePushConstant8, uniformAndStorageBuffer8BitAccess, shaderStorageImageReadWithoutFormat, shaderStorageImageWriteWithoutFormat, GL_ARB_shader_clock, and MSAA with 8 and 16 sample counts.
Numerous games received improvements in Mesa 25.1, including Avowed, Black Myth: Wukong, The Last of Us Part I and II, Kingdom Come: Deliverance II, Hunt: Showdown 1896, Tomb Raider IV - VI Remastered, Dota 2, WWE 2K23, Cyberpunk 2077, Warhammer 40,000: Space Marine 2, Sniper Elite: Resistance, Ghost of Tsushima, Final Fantasy XIV, Marvel Rivals, Elden Ring, S.T.A.L.K.E.R. 2: Heart of Chornobyl, Lost Records: Bloom & Rage, and Fort Solis.
The list of video games that received improvements in the Mesa 25.1 release continues with Ninja Gaiden II, The Headliners, Satisfactory, OCTOPATH TRAVELER II, Tales of Arise, The Last of Us, Eve Online, Pacific Drive, Star Citizen, Assassin's Creed Origins, Assassin's Creed Odyssey, Assassin’s Creed Valhalla, Immortals Fenyx Rising, A Game About Digging A Hole, A Plague Tale: Requiem, Hogwarts Legacy, and Company of Heroes 3.
Last but not least, Mesa 25.1 also improves support for the Resident Evil 2 Remake, DOOM 2016, Total War: Warhammer III, Grand Theft Auto V, Steel Rats, and Dynasty Warriors: Origins video games, as well as for apps like Firefox, Thunderbird, and Blender. For more details about the changes included in this release, check out the release notes on the official website, where you can download the source tarball.
Si vous appréciez mon travail, n'hésitez pas à me soutenir : https://www.linuxtricks.fr/pages/faire-un-don
----------
Liens :
Télécharger Windows 11 : https://www.microsoft.com/fr-fr/software-download/windows11
Fin de support Windows 10 : https://learn.microsoft.com/fr-fr/lifecycle/announcements/windows-10-22h2-end-of-support-update
Projet Flyby11 : https://github.com/builtbybel/Flyby11
00:00 Introduction
00:42 Pourquoi migrer vers Windows 11 ?
01:42 Mon PC a une petite dizaine d'années mais fonctionne très bien
02:10 Pourquoi ça ne fonctionne pas sur les vieux PC ?
03:25 INFORMATION IMPORTANTE : ACTIVATION WINDOWS
03:57 INFORMATION IMPORTANTE : SAUVEGARDER SES DOCUMENTS IMPORTANTS
04:40 Récupérer l'utilitaire permettant de contourner les restrictions de Microsoft
05:42 Lancer le programme d'installation de Windows 11 corrigé pour les vieux PC
06:25 Préparation à la mise à niveau vers Windows 11 et choix possibles
07:22 L'outil récupère quelques éléments avant de procéder à l'installation
08:23 Récapitulatif des actions avant de lancer la mise à niveau vers Windows 11
08:44 On valide le lancement de la mise à niveau vers Windows 11 !
09:30 Mise à niveau terminée après une petite trentaine de minutes
09:47 Assistant de première ouverture de session
10:10 On est accueilli sur Windows 11 !
10:25 Dos documents et nos applications sont toujours présentes
11:02 Le système est bien resté activé !
11:40 Certains applications de Windows peuvent demander des infos supplémentaires
12:04 Le système est opérationnel pour quelques années !
12:23 Outro
----------
Quelle distribution j'utilise ? : Fedora Linux avec GNOME
Quel est mon navigateur Internet : Vivaldi
Où me retrouver ? Tout est dans le bandeau de la page d'accueil de la chaine
Mon site web : https://www.linuxtricks.fr
Ma config PC Fixe :
Carte mère X470 GAMING PRO
AMD Ryzen 5 2600X
16Gb RAM DDR4
AMD Radeon RX 560 (pilote libre amdgpu)
SSD 860 EVO 500GB + SSD 860 QVO 2To
Micro BIRD UM1
sujet principal : Au café libre, débat autour de l’actualité du logiciel libre et des libertés informatiques
Chronique À cœur vaillant, la voie est libre de Laurent et Lorette Costy : « Range tes affaires dans la PirateBox »
Une nouvelle Pituite de Luk : « À nous de jouer »
Rendez‐vous en direct chaque mardi de 15 h 30 à 17 h sur 93,1 FM en Île‐de‐France. L’émission est diffusée simultanément sur le site Web de la radio Cause Commune.
L'arrivée du plugin GLPI Inventory vous contraint désormais à activer l'inventaire à partir du menu Administration > Inventaire après avoir activé le plugin.