loader from loading.io

LCC 302 - Amour, Gloire et OpenAI

Les Cast Codeurs Podcast

Release Date: 11/27/2023

LCC 327 - Mon ami de 30 ans show art LCC 327 - Mon ami de 30 ans

Les Cast Codeurs Podcast

Dans cet épisode, c’est le retour de Katia et d’Antonio. Les Cast Codeurs explorent WebAssembly 2.0, les 30 ans de Java, l’interopérabilité Swift-Java et les dernières nouveautés Kotlin. Ils plongent dans l’évolution de l’IA avec Claude 4 et GPT-4.1, débattent de la conscience artificielle et partagent leurs retours d’expérience sur l’intégration de l’IA dans le développement. Entre virtualisation, défis d’infrastructure et enjeux de sécurité open source, une discussion riche en insights techniques et pratiques. Enregistré le 13 juin 2025 Téléchargement de...

info_outline
LCC 326 - Interview assistants de code IA avec Philippe Charrière et Kevin Aubry show art LCC 326 - Interview assistants de code IA avec Philippe Charrière et Kevin Aubry

Les Cast Codeurs Podcast

Dans cet épisode, nous explorons l’univers des assistants de code AI. Comment ces outils transforment-ils notre façon de coder ? Quels sont leurs atouts et leurs limites ? Nos invités Philippe Charrière et Kevin Aubry nous éclairent sur ces technologies qui bouleversent les pratiques des développeurs. Enregistré le 8 avril 2025 Téléchargement de l’épisode ou en vidéo . Interview Ta vie ton oeuvre Peux-tu te présenter brièvement à nos auditeurs? Quelle est ton expérience personnelle avec ces outils? Tu l’utilises chez ton employeur ou juste pour tes projets personnels?...

info_outline
LCC 325 - Trier le hachis des concurrents show art LCC 325 - Trier le hachis des concurrents

Les Cast Codeurs Podcast

Gros épisode qui couvre un large spectre de sujets : Java, Scala, Micronaut, NodeJS, l’IA et la compétence des développeurs, le sampling dans les LLMs, les DTO, le vibe coding, les changements chez Broadcom et Red Hat ainsi que plusieurs nouvelles sur les licences open source. Enregistré le 7 mai 2025 Téléchargement de l’épisode ou en vidéo . News Langages A l’occasion de JavaOne et du lancement de Java 24, Oracle lance un nouveau site avec des ressources vidéo pour apprendre le langage site plutôt à destination des débutants et des enseignants couvre la syntaxe aussi, y...

info_outline
LCC 324 - Devoxx France 2025 en live show art LCC 324 - Devoxx France 2025 en live

Les Cast Codeurs Podcast

Arnaud, Antonio, Guillaume et Emmanuel font la clôture de Devoxx France dans la fumée et la bonne humeur avec l’aide des organisateurs de Devoxx et surtout les inimitables polos rouges ! Enregistré le 25 avril 2025 Téléchargement de l’épisode ou en vidéo . News Les news c’est bien sûr. Nous contacter Pour réagir à cet épisode, venez discuter sur le groupe Google Contactez-nous via X/twitter ou Bluesky Soutenez Les Cast Codeurs sur Patreon Tous les épisodes et toutes les infos sur

info_outline
LCC 323 - L'accessibilité des messageries chiffrées show art LCC 323 - L'accessibilité des messageries chiffrées

Les Cast Codeurs Podcast

Dans cet épisode, Emmanuel et Arnaud discutent des dernières nouvelles du dev, en mettant l’accent sur Java, l’intelligence artificielle, et les nouvelles fonctionnalités des versions JDK 24 et 25. Ils abordent également des sujets comme Quarkus, l’accessibilité des sites web, et l’impact de l’IA sur le trafic web. Cette conversation aborde les approches pour les devs en matière d’intelligence artificielle et de développement logiciel. On y discute notamment des défis et des bénéfices de l’utilisation de l’IA. Enfin, ils partagent leurs réflexions sur l’importance...

info_outline
LCC 322 - Maaaaveeeeen 4 ! show art LCC 322 - Maaaaveeeeen 4 !

Les Cast Codeurs Podcast

Arnaud et Emmanuel discutent des nouvelles de ce mois. On y parle intégrité de JVM, fetch size de JDBC, MCP, de prompt engineering, de DeepSeek bien sûr mais aussi de Maven 4 et des proxy de répository Maven. Et d’autres choses encore, bonne lecture. Enregistré le 7 février 2025 Téléchargement de l’épisode ou en vidéo . News Langages Les evolutions de la JVM pour augmenter l’intégrité un article sur les raisons pour lesquelles les editeurs de frameworks et les utilisateurs s’arrachent les cheveux et vont continuer garantir l’integrite du code et des données en...

info_outline
LCC 321 - Les évènements écran large show art LCC 321 - Les évènements écran large

Les Cast Codeurs Podcast

Arnaud et Emmanuel discutent des versions Java, font un résumé de l’ecosystème WebAssembly, discutent du nouveau Model Context Protocol, parlent d’observabilité avec notamment les Wide Events et de pleins d’autres choses encore. Enregistré le 17 janvier 2025 Téléchargement de l’épisode ou en vidéo . News Langages java trend par InfoQ Java 17 finalement depasse 11 et 8 ~30/33% Java 21 est à 1.4% commonhaus apparait GraalVM en early majority Spring AI et langchain4j en innovateurs SB 3 voit son adoption augmenter Un bon résumé sur WebAssembly, les différentes specs comme...

info_outline
LCC 320 - Diataxis, la méthode de documentation show art LCC 320 - Diataxis, la méthode de documentation

Les Cast Codeurs Podcast

Emmanuel, Guillaume et Arnaud se rejoignent pour discuter de Diátaxis une approche pour structurer sa documentation. Ils offrent leur perspective sur leur usage et leur compréhension. Le sujet s’ouvre ensuite pour discuter des plateformes de documentation et comment l’IA impacte la documentation. Cet épisode est aussi sorti en vidéo, n’hésitez pas nous dire ce que vous en pensez des retours et souscrivez au channel YouTube 🤗. Enregistré le 19 décembre 2024 Téléchargement de l’épisode ou en vidéo . Interview Nous contacter Pour réagir à cet épisode, venez discuter...

info_outline
LCC 319 - le ramasse-miettes-charognes show art LCC 319 - le ramasse-miettes-charognes

Les Cast Codeurs Podcast

Dans cet épisde en audio et en vidéo (youtube.com/lescastcodeurs), Guillaume et Emmanuel discutent des 15 ans de Go, d’une nouvelle approche de garbage collecting, de LLMs dans les applications Java, dobservabilité, d’une attaque de chaine d’approvisionnement via javac et d’autres choses. Enregistré le 13 décembre 2024 Téléchargement de l’épisode News Langages Go fête son 15ème anniversaire ! discute les 15 ans la corrections de gotchas dans les for loops (notamment les variables étaient loop scoped) le fait que la compile echoue si on attend une version de go...

info_outline
LCC 318 - La faille sous la faille sous la faille show art LCC 318 - La faille sous la faille sous la faille

Les Cast Codeurs Podcast

Cet épisode est relativement pauvre en IA, ouaissssssss ! Mais il nous reste plein de Spring, plein de failles, plein d’OpenTelemetry, un peu de versionnage sémantique, une astuce Git et bien d’autres choses encore. Enregistré le 8 novembre 2024 Téléchargement de l’épisode News Langages Le createur de Fernflower in decompilateur qui a relancé l’outillage autour de Java 8 est mort, un hommage d’IntelliJ IDEA les decompilateurs s’appuyaient sur des patterns reconnus et étaient fragiles et incomplets surtout quand Java 8 a changé le pattern try catch et ajouté des...

info_outline
 
More Episodes

Dans cet épisode, Emmanuel, Guillaume et Katia abordent les nouveautés Java, le lancement du langage Misty par Douglas Crockford, l’arrivée de WasmGC dans Chrome, la sortie de Spring Framework 6.1, des évolutions dans les bibliothèques comme Vert.x 4.5, et des conseils sur la création de langages de programmation. L’épisode couvre également des actualités dans les domaines de l’infrastructure avec le premier ordinateur cloud commercial par Oxide, des annonces sur les frameworks web comme Angular v17, des réflexions sur les architectures monolithiques versus microservices, et sans oublier le soap Opéra du moins de novembre avec OpenAI en vedette.

Enregistré le 23 novembre 2023

Téléchargement de l’épisode LesCastCodeurs-Episode-302.mp3

News

Langages

Recap Javaiste https://www.infoq.com/news/2023/10/java-news-roundup-oct09-2023

  • la JEP 454 sur l’appel a la memoire et les API dites natives passera en target pour JDK 22 avec une façon d’ajouter les appels de méthodes restreintes sans le flag --enable-native-access (via un manifeste dans le JAR)
  • JDK 22 prévu pour mars 2024
  • Spring Framework 6.1 est sorti (RC2)
  • Tomcat a quelques CVE donc mettez à jour

Douglas Crockford, le papa de JSON, sort un nouveau langage dénommé Misty https://www.crockford.com/misty/

  • Utilise des caractères unicodes pour définir des chaînes de caractères avec des chevrons, ou pour les opérateurs de base (comparison, and/or)
  • Support de programmation concurrente avec les actors

WasmGC arrive dans Chrome, par l’intermédiaire de v8 https://v8.dev/blog/wasm-gc-porting

  • historiquement il fallait compiler le port du langage lui meme (et donc son GC)
  • Maintenant on peut compiler le code (java) dans des primitives Wasm et WasmGC
  • Java python et co ont des VM qui sont compilées pour toutes les architecture cibles (ARM, x86 etc) y compris le JIT, AOT
  • donc on peut définir comme backend WASM lui meme, c’est l’approche classique
  • WasmGC définit des structs et des array avec des champs dans lesquels on peut créer des instances, lire/écrire les champs, caster dans d’autres types et ces objects sont managés par WasmGC lui meme. on a un système de type du coup et des relations entre ces types
  • Donc on représenterait les objets Java en objets Wasm
  • avantage et inconvenient des deux approches
  • tous les codes de management d’objets ne sont plus nécessaires (y compris malloc) -> gain memoire
  • en mode GC dans le langage les liens object langage <-> objets Wasm sont inefficaces car le lien langage -> wasm définissent l’instance entière Wasm, donc des gros cycles d’objets ne sont pas GCed
  • Wasm sandbox empêche d’inspecter la stack et d’éliminer des objets plus efficacement, et il n’y a pas d’API pour aider donc seul WasmGC peut utiliser cet avantage.
  • un seul GC a des avantages: meilleure gestion de la pression memoire
  • mais on réutilise le GC du web (genre V8) vs celui de Java. (c’est moins un problème pour les autres langages avec des gc moins sophistiqués)
  • fragmentation memoire, est plus proéminent quand on a des modules de type C qui peur garder des gros blocs memoire “quasi vide” (opaque). c’est managé plus finement en WasmGC
  • Sémantiques de langage est plus dur a achevé vu qu’on map en concepts WasmGC, il y a de la transformation.
  • sémantiques chaine de caractère, nombres, etc peuvent être un peu ajusté
  • un port utilisant WasmGC n’est pas une réécriture de tout mais un gros morceau de la VM du langage cible est a réécrire
  • WasmGC peut optimiser comme les patterns en JVM mais en WasmMVP c’est la toolchain avant qui fait le travail d’optimisation (e.g. LLVM)
  • donc avec WasmGC, la toolchain fera les optimisations de langage et WasmGC fera les optimisations low level (inlining, constant propagation, dead code elimination)
  • puis d’autres optimisation specific a WasmGC comme les escape analysis,
  • et ils parlent d’optimisations dans V8 pour approcher les appels dynamique a la Java (pas défini a la compilation)

Ecrire un langage de programmation… ça prend du temps… beaucoup de temps https://yorickpeterse.com/articles/a-decade-of-developing-a-programming-language/

  • Évitez le gradual typing
  • Évitez le boostrapping de votre compilateur
  • Évitez d’écrire votre propre générateur de code, linker, etc
  • Évitez de tergiverser trop longtemps sur la syntaxe
  • La prise en charge multiplateforme est un défi
  • Les livres sur les compilateurs compilateurs ne valent pas l’argent que vous dépenserez dessus
  • Faire grandir et évoluer un langage de programmation est difficile
  • La meilleure suite de tests est une application réelle
  • Ne privilégiez pas les performances sur les fonctionnalités.

Librairies

Spring Boot rajoute le hot reload des certificats SSL pour embedded Netty et Tomcat https://spring.io/blog/2023/11/07/ssl-hot-reload-in-spring-boot-3-2-0

  • utilisez reload-on-update: true
  • et écoute les changements de fichiers
  • pas mal dans les déploiements non immuables (pas comme kubernetes)

VertX 4.5 est sorti https://vertx.io/blog/whats-new-in-vert-x-4-5/

  • support des thread virtuels qui permet d’écrire le code synchrone pour des cas complexes et utiliser les thread locaux dans ces cas la. Cela ne remplacement pas le code de process des événements
  • le code put faire des future await qui ne bloqueront pas le thread principal
  • connection SQL dynamique: quand le host change dynamiquement dans l’application
  • support des proxies de niveau 7 pour les clients SQL
  • rotation certificats a chaud
  • des builders (HTTP, SQL connection)
  • extensions pour utiliser les coroutines kotlin

Integration declarative de Langchain4j dans Quarkus https://quarkus.io/blog/quarkus-meets-langchain4j/

Infrastructure

Oxide sort le premier ordinateur cloud disponible commercialement https://oxide.computer/blog/the-cloud-computer

  • pas facile de séparer le buzz de la réalité
  • on dirait un ordi purpose built avec l’efficience et le cote compact en tete
  • ils poussent contre le mode location uniquement des cloud providers
  • en gros inspire des cloud providers qui construisent leurs propres ordis (et meme CPUs maintenant !)
  • construit le hardware et le software en co optimisation
  • c’est un rack entier, peu de bruit de ventilateur
  • pas de cable (seul E/S du rack)
  • donc ils ont leurs propres switch
  • compliqué de différencier l’avantage du désavantage

Les leçons tirées de 20 de Site Reliability Engineering par Google https://sre.google/resources/practices-and-processes/twenty-years-of-sre-lessons-learned/

  • Le risque d’une mitigation doit être proportionné à la gravité de la panne
  • Les mécanismes de récupération doivent être entièrement testés avant une urgence
  • Canarisez tous les changements
  • Avoir un “gros bouton rouge”
  • Les tests unitaires ne suffisent pas, des tests d’intégration sont également nécessaires
  • CANAUX DE COMMUNICATION ! ET CANAUX DE SECOURS !! ET DES SAUVEGARDES POUR CES CANAUX DE SECOURS !!!
  • Modes de dégradation intentionnelle des performances
  • Tester la résilience aux catastrophes
  • Automatisez vos mitigations
  • Réduisez le temps entre les déploiements, afin de diminuer la probabilité que le déploiement tourne mal
  • Une seule version matérielle globale est un point de défaillance unique

Karpenter une evolution de autoscaler pour les cluster kubernetes https://blog.ippon.fr/2023/11/07/mettez-a-lechelle-vos-clusters-kubernetes-de-maniere-efficace-et-faites-des-economies-avec-karpenter/

  • fonctionne uniquement pour AWS aujourd’hui et un projet AWS donc a voir la portabilité
  • permet d’ajouter ou de supprimer des noeuds au cluster kubernetes en dynamique pour right sizer ses clusters
  • bypass les API kube pour la creation d’instance et utilise les APIs AWS EC2 directement
  • permet des noeuds hétérogènes (pas homogène comme autoscaler)
  • et se right size rapidement (e.g. 30s pour éteindre un noeud)
  • besoin d’applis cloud native par elles vont être baladées

Web

Deno! https://www.infoq.com/news/2023/10/deno-jupyter-integration

  • Dev experience, jupyter notebook integration
  • Améliorations sur Visual Studio Code extension (compatible avec NodeJS)
  • Exec native sur Jupyter de javascript et typescript permet d’effectuer des analyses de données, construire des modèles d’apprentissage automatique et générer des rapports interactifs avec Deno
  • Visualisation dynamiques avec D3 dans le notebook
  • Connection à Deno KV
  • Plusieurs améliorations sur le testing, APIs etc

Lancement du nouveau site angular.dev et de la version v17 du framework https://blog.angular.io/announcing-angular-dev-1e1205fa3039

Outillage

Il est possible de signer et notariser des applications pour macOS sur des machines non-Apple https://gregoryszorc.com/blog/2022/08/08/achieving-a-completely-open-source-implementation-of-apple-code-signing-and-notarization/

  • implémenté en Rust
  • pratique pour son pipeline CI/CD basé sur Linux
  • a priori, il y a des outils similaires pour le monde Windows, qui permet de signer sur une machine non-Windows https://github.com/mtrojnar/osslsigncode

Lors de son Github Universe, Copilot fait le show ! https://github.blog/2023-11-08-universe-2023-copilot-transforms-github-into-the-ai-powered-developer-platform/

  • Copilot Chat sera GA en décembre, il utilise GPT4, il permet de guider le développeur, de générer du code, de détecter des erreurs et aide à les corriger, d’expliquer le code
  • Intégration à venir de Copilot Chat dans les IDEs de JetBrains
  • Copilot Chat va être intégrer sur github.com et dans l’appli mobile aussi
  • Introduction de GitHub Copilot Enterprise pour les sociétés, qui permettra de spécialisé le modèle sur le code de l’entreprise
  • Intégration de Copilot ans Workspace, donc quand on voudra adresser un bug, créer un pull request, Copilot pourra nous aider étape par étape, suggérer un plan d’action
  • Copilot Enterprise permettra de faire des recherches avec le contexte entier du code de l’entreprise, donc idéalement meilleur que le focus sur un repo de Copilot

Un guide sur OpenRewrite https://feeds.feedblitz.com//819402521/0/baeldungA-Guide-to-OpenRewrite

  • permet de refactorer le code via des règles
  • mise a jour de dependences, enlever usage d’api dépréciées, migration d’une bibliothèque a une autre, etc
  • migration java, migration framework, transformations spécifiques a votre société
  • OpenRewrite vient avec un écosystème de recettes
  • intégration via maven ou gradle
  • la suite montre des examples de migrations

Architecture

Article interessant sur Monolithe vs Microservices ! https://www.infoq.com/articles/monolith-versus-microservices/

  • Le débat monolithe vs microservices. Les monolithes reviennent, par exemple spring-modulith https://spring.io/projects/spring-modulith
  • Les microservices sont la solution à la complexité plutôt que la cause de celle-ci. Toutes les applications deviendront complexes ; au-delà d’un certain point, les microservices nous aideront à gérer cette complexité.
  • Les microservices comportent des coûts et des avantages. Si les avantages ne l’emportent pas sur les coûts, vous n’aurez pas une expérience positive avec les microservices.
  • Nous pouvons arrêter notre transition vers les microservices quelque part au milieu du spectre, ce que j’aime appeler le modèle hybride. À ce stade, nous pouvons avoir quelques gros services mélangés à quelques petits services. Nous pouvons avoir le meilleur des deux mondes : la simplicité et la commodité du monolithe combinées à la flexibilité et à la scalabilité des microservices.
  • Il n’y a pas de choix binaire entre monolithique et microservices. En réalité, il existe un spectre de possibilités entre les deux. Si vous vous êtes fixé à l’une des extrémités du spectre, vous passez à côté de la grande variété d’architectures intermédiaires.
  • Nous devrions cesser de parler de monolithe contre microservices et plutôt avoir un débat plus nuancé sur la taille appropriée des services.
  • les microservices mettent sur le devant de la scene la complexification du système, les monolithes le cachent sous le tapis
  • les microservices permette de manager cette complexité
  • automatisation est la clés dans l’adoption des microservices
  • bien aligner son architecture et son domain ou alors la douleur arrive

Sécurité

Une explication de la CVE sur HTTP/2 https://quarkus.io/blog/cve-2023-44487/

  • en fonction de l’implémentation, le risque est plus ou moins grand (de plus de CPU a un full DDOS)
  • au cœur du problème est la capacité d’envoyer pleins de requêtes en parallèle sur le meme pipeline HTTP/2
  • les serveurs ont en general une limite au streams en parallèle (genre 100)
  • la CVE est exploitée cote client en ouvrant et fermant rapidement une stream, c’est plus léger sur le client, le serveur a un delai dans sont processing
  • ce qui permet de bypasser la limit et affamer les resources du serveur
  • c’es catastrophique en cas de one thread per request (thread starvation)
  • en event loop, c’est une queue plus grande (donc le cas de quarkus)
  • pour mitiger, quarkus regarde le nombre de stream close requests par seconde pour détecter les abus (200 requêtes de fermeture sur une fetnetre de 30s)

Data / IA

Elon Musk annonce son LLM, appelé Grok https://x.ai/

  • Connectivité en temps réel avec Twitter !
  • Fenêtre de contexte de 25k characters
  • Le LLM garderait le contexte de la conversation (au lieu d’avoir à toujours renvoyer toute la discussion dans le contexte, à cause du côté sans état des LLMs habituellement)
  • Le style, la personnalité, du LLM, serait assez humoristique, voire carrément sarcastique, à la Musk… et déjà sur Twitter une personne commentait en disant que c’était le LLM “anti-woke”
  • Grok serait disponible pour les utilisateurs payants de Twitter

OpenAI fait 4 nouvelles annonces https://openai.com/blog/new-models-and-developer-products-announced-at-devday

  • GPT-4 Turbo : leur dernier et plus puissant LLM. Il offre un contexte de 128k tokens, des prix plus bas et des quotas plus élevés. 128k c’est comme Claude
  • Assistants API : une solution permettant de créer des mini assistants personnalisés et de les exposer via une API. L’objectif est de faciliter l’intégration des solutions GenAI dans les applications, avec des fonctionnalités de gestion des conversations, d’interprétation de code et de RAG.
  • API pour DALL•E 3 : un modèle de 3e génération pour la génération d’images.
  • GPTs : des versions personnalisées de ChatGPT, faciles à développer même sans compétences en programmation. Une place de marché sera disponible pour monétiser ces “GPTs”.
  • Merci Didier et son X de résumer
  • un article plus complet de SFEIR https://www.sfeir.dev/ia/quand-lesprit-de-noel-sinvite-a-lopenai-devday/
  • Protection juridique en cas d’attaque de droits d’auteur

Loi, société et organisation

Les acteurs et la IA, deal pour arrêter a grève https://www.bbc.com/news/entertainment-arts-67364587

  • Les acteurs et les grands studios d’Hollywood ont conclu un accord le 8 novembre pour mettre fin à une grève qui a paralysé la production de films et de séries aux États-Unis pendant plusieurs mois.
  • L’accord prévoit une nouvelle convention collective de trois ans pour les acteurs (hormis les vedettes, les acteurs n’arrivent pas à gagner leur vie avec le streaming)
  • Revalorisation importante des salaires minimums ainsi que des des garde-fous contre le IA. Un système de primes pour les rediffusions en streaming.
  • Double mouvement social historique : acteurs sont entrés en grève mi-juillet, les scénaristes depuis début mai. La paralysie du secteur a coûté au moins 6 milliards de dollars.
  • Les acteurs craignaient que les studios utilisent l’IA pour cloner leur voix et leur image, les réutiliser à perpétuité, sans compensation ni consentement. Les conditions entourant les droits des studios sur l’image des acteurs stars après leur mort a été négocié.

Chute de WeWork, dépôt de bilan https://www.maddyness.com/2023/11/06/wework-impact-coworking-france/

  • La disparition annoncée du géant mondial du coworking marque un tournant pour le secteur, y compris en France.
  • Asphyxié par une dette de près de 3 milliards de dollars
  • Chute interminable entamée en 2019
  • WeWork était le leader mondial du secteur et, de par son statut de pionnier du coworking
  • WeWork propose 15 établissements en France, tous situés à Paris
  • Pourtant la demande pour le coworking ne cesse d’exploser
  • Startups domicilient leur siège (Qonto par exemple) dans un espace de co-working
  • Le modèle du coworking n’est pas remis en cause. WeWork, c’est un phénomène à part. Il y a eu une mauvaise gestion de départ d’une licorne qui croît à toute vitesse, en ne faisant absolument pas attention à son modèle économique de base (dit Clément Alteresco CEO de Morning)
  • Mauvaise publicité pour le marché et les concurrents, mais considèrent qu’ils vont s’en sortir

Les français, les utilisateurs twitter le plus violents d’Europe? https://www.huffingtonpost.fr/france/article/les-francais-sont-les-utilisateurs-de-twitter-les-plus-violents-d-europe_225331.html#:~:text=2023%2023%3A57-,Les%20Fran%C3%A7ais%20sont%20les%20utilisateurs%20de%20Twitter%20les%20plus%20violents,’Allemagne%20et%20l’Espagne.

  • Les signalements de contenus, suppressions et suspensions pour propos violents et haineux au sein de X sont les plus nombreux en France, loin devant l’Allemagne et l’Espagne.
  • 16.288 suppressions de messages contre 7.160 en Allemagne et 7.743 en Espagne
  • X explique avoir une « équipe internationale et inter-fonctionnelle » de « modérateurs humains », qui travaillent « 24 heures sur 24 avec la capacité de couvrir plusieurs langues ».

Sam Altman PDG d’OpenAI est débarqué par son conseil de surveillance https://thealgorithmicbridge.substack.com/p/why-openai-fired-sam-altman-and-what

Les groupes “Responsible AI” chez Google, Microsoft et plus récemment Meta https://www.theverge.com/2023/11/18/23966980/meta-disbanded-responsible-ai-team-artificial-intelligence?utm_source=substack&utm_medium=email sont détruits

  • meme débat chez OpenAI en fait.
  • difficile de comprendre les raisons, à part que la course s’est accélérée
  • l’article site les gouvernements qui veulent réguler mais je ne comprends pas en quoi cela influence

Conférences

Retrouvez les conférences sur le site Developers Conferences Agenda/List par Aurélie Vache.

Nous contacter

Pour réagir à cet épisode, venez discuter sur le groupe Google https://groups.google.com/group/lescastcodeurs

Contactez-nous via twitter https://twitter.com/lescastcodeurs
Faire un crowdcast ou une crowdquestion
Soutenez Les Cast Codeurs sur Patreon https://www.patreon.com/LesCastCodeurs
Tous les épisodes et toutes les infos sur https://lescastcodeurs.com/