Episodes
Hvem bliver den første til at få en røvfuld af en AI-robot? I denne uge har vi ladet os inspirere af virksomheden Figures speech-to-speech-demonstration af deres robot, Figure 01, som de har udviklet i samarbejde med OpenAI. Vi taler om vision-language-action (VLA) modeller, som højst sandsynligt er den model, som ligger bag Figure 01s sprog-billede-action-forståelse. Vi har fået Nicolai Nielsen med på episoden, der har en solid baggrund i computer vision og også ved en hel del om robotter,...
Published 03/20/24
I dette afsnit af Verbos Podcast bytter vi om på rollerne, og det er i dag vores gæst, Martin Kongshave, som skal interviewe Jonas og Kasper. Martin Kongshave har en baggrund i filosofi og som lærer og er interesseret i at forstå teknikken bag sprogmodellerne, især med henblik på at anvende generativ AI i skolesammenhæng. Det blev til en række gode spørgsmål og førte til mange gode snakke om generativ AI og sprogmodeller!
Published 03/13/24
Vi er tilbage fra vinterferie og i ugens episode står programmet hovedsageligt på model releases, både åbne, lukkede og announcements 🥳 Derudover tager vi også en snake om et forslag fra SF som blev behandlet i folketinget om hvor vidt Staten skal udvikle en dansk LLM. Links: Sora: https://openai.com/research/video-generation-models-as-world-simulators Gemma: https://storage.googleapis.com/deepmind-media/gemma/gemma-report.pdf Stable Diffusion 3:...
Published 02/28/24
Hvilke teknikker findes der til at teste sprogmodellers evne til at forstå sprog? Er de åbne engelske og multilingvale modeller gode på de skandinaviske sprog? Eller bør vi yde en indsats i de nordiske lande for at få sprogmodellerne up to speed med at forstå f.eks. dansk? Dan Saattrup Nielsen har udviklet ScandEval, et framework til evaluering af nordiske sprogmodeller. Han ved virkelig meget om evaluering af sprogmodeller, og i dette afsnit af Verbos fortæller han netop om...
Published 02/14/24
Mange virksomheder, der udgiver LLM'er på Hugging Face, taler om, at deres modeller er "open source". Mange mener dog, at disse modeller ikke er open source, da essentielle komponenter som f.eks. kildekoden og datasættet, som modellerne er trænet på, ofte ikke er frigivet sammen med modellen. Allen Institute for AI har dog lige udgivet deres open source LLM-serie "OLMo", som står for Open Language Model, hvor de er gået efter at dele så meget som muligt, altså ikke bare modelartefaktet, men...
Published 02/07/24
Vi tager en update på en håndfuld interessante ting der sker i AI space’et. Vi taler model merging, Ollama Python client, OpenAI updates og mere til.
Published 01/31/24
I denne uge har vi besøg af Natasha Norsker, som er co-founder af Women in AI Denmark og Data Scientist i Todai. Vi taler om AI før og efter ChatGPT, arbejdet som AI konsulent, graf neurale netværk og meget mere!
Published 01/24/24
AI eksploderer lige nu, og mange leder efter kvalificeret arbejdskraft til at drive udviklingen. Men hvad vil det sige at være Data Scientist, Machine Learning Engineer, Data Engineer osv.? Hvilke skills er værdifulde at have, hvis man gerne vil positionere sig som AI-udvikler? Og hvad er kendetegn ved virksomheder, som er attraktive over for AI-ingeniører? Det, og mere, skal vi tale om i denne uges afsnit af Verbos Podcast 🔥
Published 01/17/24
I denne episode tager vi en snak med to af de primære folk bag det danske sprogteknologiske projekt Danish Foundation Models (DFM). I DFM-projektet arbejdes der med at udvikle danske sprogmodeller, blandt andet en dansk Large Language Model (LLM), men også en række andre typer sprogmodeller, som vi skal tale med Kenneth og Lasse om. Lyt med på dagens afsnit og bliv klogere på Danish Foundation Models-projektet 🚀 DFM website:...
Published 01/10/24
2023 var et vildt AI år, vi tror at 2024 bliver endnu vildere! Her er de teknologier som vi tror blive vigtige og derfor gerne vil nørde i 2024! Links: - verbospodcast.dk - https://github.com/huggingface/candle - https://github.com/jmorganca/ollama - https://github.com/openai/weak-to-strong - https://github.com/microsoft/autogen
Published 01/03/24
2023 har været et CRAZY AI år! Vi gennemgår AI året der gik i denne jule/nytårs special af Verbos Podcast 🎆
Published 12/19/23
I denne uge er vi tilbage og zoomer ind på et udvalg af AI nyheder. Vi taler om Googles nye model serie Gemini, Mistrals nye Mixture of Experts model, Hugging Face's nye PyTorch-agtige framework "Candle" som er skrevet i Rust, og så en ny samling af organisationer kaldet AI Alliance, som bl.a. vil arbejde imod mere åben AI.
Published 12/13/23
I denne uges episode af Verbos sidder Jonas og Kasper fysisk sammen hos Kasper! Vi benytter lejligheden til at imødekomme en lytterhenvendelse om at gennemgå nogle af de tekniske AI-ord, vi bruger flittigt i podcasten! Derfor går vi i dag igennem en liste af 20 tekniske AI-termer og forklarer dem så grundigt, at vi forhåbentlig kan gøre os forståelige over for flere af vores lyttere 🤗 Her er en liste over de begreber vi forklarer 👇- Neuralt netværk- Embeddings- Vector databaser- Embeddings-...
Published 11/29/23
I den seneste episode af Verbos Podcast, tager vi en dybdegående snak med Morten Lantow om MLOps og LLMOps. Som Head of MLOps hos DSV deler Morten sine erfaringer med implementering af Large Language Models og giver indsigt i, hvordan man kan håndtere machine learning i stor skala. Denne episode tilbyder praktiske perspektiver og principper for alle, der arbejder med eller interesserer sig for avanceret machine learning. Links Morten Lantows Python pakke Labton:...
Published 11/22/23
AI og IT-industrien stormer frem, men hvad med de bæredygtige aspekter i branchen? Hvordan kan vi tænke bæredygtighed ind i softwareudvikling og data science? Er der nogle udviklingsmønstre, som ikke er bæredygtige på sigt? Hvad sker der for eksempel med al den data, som indsamles og gemmes i stor stil? I denne uge har vi besøg af data scientist og AI-bæredygtighedsskribent, Kasper Groes Albin Ludvigsen, til en snak om netop dette!
Published 11/15/23
Mandag den 6. november afholdte OpenAI deres DevDay og de offentliggjorde et væld af nye API og produkt opdatereringer! Blandt dem var GPTs, GPT Store, GPT-4 Turbo, GPT-4 Vision, og meget meget mere! Vi går igennem det hele og opdaterer dig på de vigtiste ting 💪 Links: https://openai.com/blog/new-models-and-developer-products-announced-at-devday https://openai.com/blog/introducing-gpts
Published 11/08/23
I denne uge har vi besøg af Dan Rose, som til dagligt er CEO i Todai. Vi tager debatten om hvorvidt staten bør investere i at udvikle en dansk chatbot, generativ sprogmodel, LLM, kært barn har mange navne. Vi er klar over at den snak efterhånden er en gammel traver i Verbos Podcast, men denne gang tager vi et noget mere kritisk syn på sagen og får talt om alle de misforståelser og den forvirring som vi mener der er i debatten.
Published 11/01/23
I denne uges afsnit af Verbos taler vi om nogle håndplukkede nyheder i AI space’et: Det nye programmeringsprog "Mojo" til AI-ingeniører er nu tilgængeligt på MacOS. Et open source projekt ved navn LLama2, der anvender Mojo, er blevet lanceret. LLM’er bliver sløve midt i deres kontekst vindue. OpenAssistant projektet er færdigt og efterlader sig et fedt åbent dataset til at træne Chat modeller med RLHF.
Published 10/26/23
Alle snakker om prompt engineering, men hvad dækker begrebet egentlig over? Er det nok at mestre interaktionen med ChatGPT for at betegne sig selv som en prompt engineer? Eller skal man have evnerne til at automatisere prompts med kode for virkelig at kunne bære denne titel? Når prompt engineering kombineres med software engineering, hvilke udfordinger opstår så? Akkurat som vi kender til begreber som DevOps og MLOps, er vi så ved at se en ny trend ved navn PromptOps opstå? Disse spørgsmål...
Published 10/18/23
I denne episode taler vi med Roman Jurowetzki, som fornyligt blev interviewet af Børsen om behovet for en dansk sprogmodel til en artikel med titlen "Staten overvejer dansk chatbot". Vi dykker ned i udfordringerne, mulighederne og den aktuelle tilstand af generativ AI og LLM'er (Language Learning Models) i Danmark. Børsen artikel: https://borsen.dk/nyheder/ai/staten-undersoger-mulighed-for-dansk-chatbot Artikel som Roman nævner:...
Published 10/11/23
I denne episode taler vi med Roman Jurowetzki, som fornyligt blev interviewet af Børsen om behovet for en dansk sprogmodel til en artikel med titlen "Staten overvejer dansk chatbot". Vi dykker ned i udfordringerne, mulighederne og den aktuelle tilstand af generativ AI og LLM'er (Language Learning Models) i Danmark. Børsen artikel: https://borsen.dk/nyheder/ai/staten-undersoger-mulighed-for-dansk-chatbot Artikel som Roman nævner:...
Published 10/11/23
Tænker ChatGPT når den besvare dine spørgsmål? Hvad er tænkning i det hele taget? Og hvordan tænker vi mennesker? Hvad er mening og hvordan beskriver sprog det? Ved at tænke over mening, kan vi så forstå hvad det er AI lærer når det læser milliarder af ord? Alt det og meget mere skal vi tale om i denne uges afsnit af Verbos podcast. For at ground’e snakken så den ikke bliver 100% lommefilosofi, så tager vi udgangspunkt i et paper kaldet “The Reversal Curse: LLMs trained on "A is B" fail to...
Published 10/04/23
Vi har Duarte Carmo med som gæst og diskuterer alle de fantastiske og udfordrende aspekter i at bygge applikationer med Large Language Models (LLMs).
Published 09/27/23
Mads Henrichsen er manden bag DanskGPT, som så vidt vi ved, er den første LLM nogensinde! 🥳 I dette afsnit fortæller Mads historien om, hvordan han har trænet og stadig træner DanskGPT. Mads har af egen lomme betalt for al den compute, han har brugt til at træne modellen, og har derfor også gjort en kunst ud af at gøre hele processen så omkostningseffektiv som muligt. Lyt med, når Mads deler sin fascinerende historie og den erfaring, han har opbygget, mens han har trænet DanskGPT 🚀
Published 09/20/23
I denne uges episode af Verbos podcast taler vi om den nye LLM Falcon 180B er på Hugging Face og har taget titlen som den hidtil største open source model nogensinde! Vi tager et kig på Hugging Faces nye service "Training Cluster As a service", som giver dig mulighed fra a smidde alt fra $30.000-$7.500.000 efter at træne din egen LLM, og taler om behovet for at tune egne LLM'er. Dertil tager vi et kig på nogle mystiske loss kurver og snakker om et paper fra Google DeepMind som beskriver et...
Published 09/13/23