Quelles sont les derniÚres nouveautés dans le monde du Cloud et du devops ?
Comme Ă notre habitude nous voilĂ de retour avec lâActus DevOps mensuel, pour tâaider dans ta veille.
Aujourdâhui, je suis avec @nidouille , @nledez et @Uggla ensemble on parle de :
IA chez Scaleway
Java 21 LTS
Passage officiel du kernel Linux LTS de 6 Ă 2 ans
Rapport Dora 2023 sur lâĂtat de lâart du DevOps
Article de blog : https://lydra.fr/devops-en-2023-actus-devops-octobre-2023/
Et pour toi câĂ©tait quoi les nouvelles marquantes DevOps ou cloud de ce mois ?
4 « J'aime »
Excalidraw a Ă©tĂ© mis en place chez nous en hĂ©bergĂ©. Câest assez agrĂ©able a utiliser. Le mode collaboratif est trĂšs sympa.
Je l.ai pas beaucoup pratiquĂ©, mais le format dâexport .excalidraw est un JSON like qui se suit trĂšs bien avec git et se retouche plus facilement en mode texte que du .svg
jl-m
Novembre 2, 2023, 6:49
3
Salut, une petite remarque Ă propos du supercalculateur chez scaleway.
Le plus gros pourvoyeur de GPU en Europe, probablement pas. Peut-ĂȘtre le plus gros en accĂšs public ?
Les chercheurs français (et europĂ©ens dans le cadre de collaborations) ne sont pas vraiment dĂ©munis pour accĂ©der Ă des GPUs. Ils ont accĂšs au supercalculateur Jean Zay (specs) via lâIDRIS, ou au plus rĂ©cent Adastra via GENCI. Ce dernier est 12á” mondial dans le top 500 et 3á” dans le green 500
Spec Adastra
Le supercalculateur Adastra fourni par HPE est composé de deux partitions de calcul :
Scalaire (CPU) comportant 536 nĆuds fins (2 processeurs AMD Epyc 9654
(Genoa) 96-coeurs 2,4 GHz, 768 Go de mémoire, un attachement réseau
« Slingshot » 200Gb/s), puissance crĂȘte totale : 3,9 PFlop/s
AccĂ©lĂ©rĂ©e (GPU) basĂ©e sur 338 nĆuds accĂ©lĂ©rĂ©s (1 processeur AMD Epyc 7A53s
(Trento) 64-coeurs 2,4 GHz, 256Go de mémoire, 4 attachements réseau
« Slingshot » 200Gb/s, 4 accĂ©lĂ©rateurs AMD MI250X), puissance crĂȘte totale :
70,3 PFlop/s
Pour lâinstallation et la fourniture de ressources GPU sur un cluster de calcul, a une Ă©chelle beaucoup beaucoup plus modeste que ce qui est prĂ©sentĂ© ici, en fait câest finalement assez simple Ă mettre en place. Si lâon reste dans lâoptique dâĂȘtre le petit bain du calcul GPU .
Une fois les besoins clarifiĂ©s, qualifiĂ©s et testĂ©s, il faut se jeter dans le grand bain, via GENCI pour les chercheurs ou Scaleway. Eux fourniront des optimisations et du support plus pertinents et plus pointus, quâun petit cluster nâa pas forcĂ©ment les moyens de fournir.