🔎 Le DevOps en 2023 ? | Actus DevOps Octobre 2023

:globe_with_meridians: Quelles sont les derniÚres nouveautés dans le monde du #cloud et du #DevOps ?

:newspaper_roll: Comme à notre habitude nous voilà de retour avec l’Actus DevOps mensuel, pour t’aider dans ta veille.

Aujourd’hui, je suis avec @nidouille, @nledez et @Uggla ensemble on parle de :
:robot: IA chez Scaleway
:fire: Java 21 LTS
:penguin: Passage officiel du kernel Linux LTS de 6 Ă  2 ans
:bar_chart: Rapport Dora 2023 sur l’État de l’art du DevOps

Article de blog : 🔎 Le DevOps en 2023 ? | Actus DevOps Octobre 2023 - Lydra | Artisans DevOps

Et pour toi c’était quoi les nouvelles marquantes DevOps ou cloud de ce mois ?

4 « J'aime »

Excalidraw a Ă©tĂ© mis en place chez nous en hĂ©bergĂ©. C’est assez agrĂ©able a utiliser. Le mode collaboratif est trĂšs sympa.
Je l.ai pas beaucoup pratiquĂ©, mais le format d’export .excalidraw est un JSON like qui se suit trĂšs bien avec git et se retouche plus facilement en mode texte que du .svg

Salut, une petite remarque Ă  propos du supercalculateur chez scaleway.
Le plus gros pourvoyeur de GPU en Europe, probablement pas. Peut-ĂȘtre le plus gros en accĂšs public ?

Les chercheurs français (et europĂ©ens dans le cadre de collaborations) ne sont pas vraiment dĂ©munis pour accĂ©der Ă  des GPUs. Ils ont accĂšs au supercalculateur Jean Zay (specs) via l’IDRIS, ou au plus rĂ©cent Adastra via GENCI. Ce dernier est 12ᔉ mondial dans le top 500 et 3ᔉ dans le green 500

Spec Adastra

Le supercalculateur Adastra fourni par HPE est composé de deux partitions de calcul :

  • Scalaire (CPU) comportant 536 nƓuds fins (2 processeurs AMD Epyc 9654
    (Genoa) 96-coeurs 2,4 GHz, 768 Go de mémoire, un attachement réseau
    « Slingshot » 200Gb/s), puissance crĂȘte totale : 3,9 PFlop/s
  • AccĂ©lĂ©rĂ©e (GPU) basĂ©e sur 338 nƓuds accĂ©lĂ©rĂ©s (1 processeur AMD Epyc 7A53s
    (Trento) 64-coeurs 2,4 GHz, 256Go de mémoire, 4 attachements réseau
    « Slingshot » 200Gb/s, 4 accĂ©lĂ©rateurs AMD MI250X), puissance crĂȘte totale :
    70,3 PFlop/s

Pour l’installation et la fourniture de ressources GPU sur un cluster de calcul, a une Ă©chelle beaucoup beaucoup plus modeste que ce qui est prĂ©sentĂ© ici, en fait c’est finalement assez simple Ă  mettre en place. Si l’on reste dans l’optique d’ĂȘtre le petit bain du calcul GPU.
Une fois les besoins clarifiĂ©s, qualifiĂ©s et testĂ©s, il faut se jeter dans le grand bain, via GENCI pour les chercheurs ou Scaleway. Eux fourniront des optimisations et du support plus pertinents et plus pointus, qu’un petit cluster n’a pas forcĂ©ment les moyens de fournir.