Im OMR Podcast ist Philipp Klöckner bereits Stammgast, nun könnte auch sein Auftritt auf dem OMR Festival zur schönen Tradition werden: Zum zweiten Mal zieht Pip Klöckner den großen Strich unter das Thema der Stunde. Wo stehen wir bei Künstlicher Intelligenz wirklich? Was ist Wunsch und was ist Wirklichkeit? Und was bedeuten all diese Entwicklungen nicht nur für jeden Einzelnen von uns, sondern auch für unsere Unternehmen und unsere Wirtschaft allgemein? Wer sich in 40 Minuten auf den aktuellen Stand der Diskussion bringen will, sollte diese Keynote hören.

    Subscribe to our OMR YouTube channel: http://bit.ly/OMRyoutube

    At OMR, we view ourselves as a platform for industry professionals by industry professionals. We bring together players from every corner of the digital marketing stratosphere: marketing makers with global visionaries, head hunters with prime candidates and information seekers with experts. Our range of products includes the annual OMR Festival with 70,000 visitors in 2023, big-name international speakers, stellar networking opportunities and unique industry insights, our German and English-language blogs, our weekly podcasts, monthly reports, jobs portal, and many more. Welcome to the home of Digital Marketing: omr.com

    OMR Festival: https://moin.omr.com/45bOuHz
    OMR Daily German: http://bit.ly/OMRdaily
    OMR Daily English: http://bit.ly/OMRdailyEn
    OMR Podcast: http://bit.ly/OMRpodcast
    OMR Jobs & HR https://moin.omr.com/3IpLYnA
    OMR Education https://moin.omr.com/OMReducation
    OMR Reviews https://moin.omr.com/OMRreviews
    OMR Podstars https://moin.omr.com/OMRpodstars
    OMR Facebook https://moin.omr.com/3pIzgJW
    OMR Instagram https://moin.omr.com/42Z8afR
    OMR Twitter https://moin.omr.com/3Ih6Kpj
    OMR LinkedIn https://moin.omr.com/3pWKDhC
    OMR XING https://moin.omr.com/3pzALtN

    jeder dieser Konzerne macht mehr investments in generative ai wie dies gesamte Silicon Valley VC Szene zusammen die haben auch ein großes Interesse daran weil wenn die Firma eine Million geben womit sie mit mit dann wenn sie mit der Million dann wieder bei Microsoft sich ins Datacenter einkaufen um die sozusagen Chips zu beanspruchen zum zum Training macht Microsoft mit diesem Umsatz s das 15fache an Marktbewertung wieder gut moin hambur uh voll vielen Dank fürs zahlreiche erschein mein Name ist Philip Klöckner ich kriege später eine Presi genau die slide soll sagen dass ich relevant bin der eigentliche Grund warum ich hier bin ist aber diese Person der hat mich vor dre Jahren zu einem Podcast überredet der seitdem sehr erfolgreich gewachsen ist und unter anderem deswegen darf ich heute hier stehen es geht heute um das Thema ai ich habe 150 fen mitgebracht äh für 40 Minuten das heißt es geht schnell ihr müsst gar nichts machen ihr müsst keine Fotos ihr dürft Fotos machen ihr müsst keine Fotos machen ihr müsst euch nichts merken ihr kriegt die Slides hinterher ihr kriegt ein Video hinterher m versucht einfach nur was ich sage zu genießen und merkt euch drei vier spannende Fakten die ihr noch nicht kanntet ich werde so ein bisschen Bezug nehmen auf letztes Jahr um zu schauen wie meine letzte Präsentation gealtert ist letztes Jahr ging es vor allen Dingen um Effizienz ähm da haben Unternehmen sehr viel darüber gesprochen wie sie effizienter werden wollen heute äh dieses Jahr der gleiche Chart sieht so aus dass sie über ihr Ei sprechen jedes dritte Unternehmen spricht in seinen Quartalsergebnissen über das Thema ai ich habe letztes Jahr gesagt dass die techkonzerern immer mehr Geld verdienen aber es auch für immer mehr neue Angestellte ausgeben und deswegen nicht mehr profitabler oder effizienter werden und die haben gut zugehört was sie gemacht haben ist wenn man ein Jahr vorspüt spult haben sie viele Leute entlassen und sind trotzdem stark gewachsen beim Umsatz dadurch hat sich ihr auch das ist live vom letzten Jahr hat sich ihr Rohertrag pro Mitarbeiter deutlich verbessert bei google ist er von 750 000 auf über eine Million proertrag pro Mitarbeiter hochgegangen in der kurzen Zeit bei Meter hat er sich sogar verdoppelt von 250 000 auf eine halbe Million pro Mitarbeiter das ist Effizienz Scott Galloway hat gestern gesagt wir haben Peak ai das hatte sich vielleicht selber ausgedacht aber das sagt auch Gartner Gartner hat diesen berühmten Hype cycle um Trends zu beschreiben und ner denkt dass generative ai und Foundation Models dies large language Models auf dem Höhepunkt des Peaks sind gerade das heißt nicht dass sie sterben danach das heißt danach kommt dieses Tal der Desillusion und dann kommt irgendwann die wirkliche Anwendung anders sieht es samman Oldman sagt dieses Jahr ist das most interesting Jahr for Humanity eigentlich und jedes daraufolgende wird es von jetzt an auch sein weil ai sich beschleunigt entwickelt er hat Grund froh zu sein letztes Jahr haben hat open eii den 2 Milliarden Umsatz Meilenstein gebrochen das ist eine Firma die vor 5 Jahren noch gar keine Firma war oder noch gar kein Unternehmen war sondern ein Forschungslabor macht jetzt 2 Milliarden Umsatz mit AI und dieses Jahr wahrscheinlich mehr hat über 600.000 Enterprise Nutzer die Chat gbt schon nutzen noch mehr Geld macht aber Accenture ausgerechnet exenture mit AI Accenture die Unternehmensberatung oder Systemintegrator könnte man sagen verdient mehr Geld als alle ai Startups zusammen mit AI gerade indem sie einfach Unternehmen Schulen und ai implementieren in diese Unternehmen sie haben 600.000 Menschen weltweit schon ausgebildet sie schulen ihr ganzes inhaus ihr eigenes Personal zu ai Experten um weil das das große Projekt ist was Unternehmensberatung in Zukunft machen können die Leute ist der Nummer ein Partner für generative ai bei Google die Leute ist auch im System i independent Software Wender ISV und die Unternehmen beschäftigen diese Beratung um ai zu implementieren weil jeder CEO unbedingt ai machen möchte aber niemand möchte schuld sein wenn das AI Projekt scheitert also lasse ich exenser oder deloit oder irgendeine andere Unternehmensberatung diese Projekte bei mir implementieren und deswegen macht exenser dieses Jahr 2,4 Milliarden Umsatz mit AI es gibt aber auch echte real world use cases von AI schon clana hat 700 Jobs in Callcenter eingespart indem man einen Chat Agent die Anfragen beantworten lässt Zoom spart 400.000 Stunden im Callcenter jeden Monat indem sie 90% der Anfragen von einem Chatbot beantworten lassen über 1,3 Millionen Entwickler weltweit nutzen schon den Copiloten von Microsoft GitHub und entwickelt damit 40 50 Mal schneller als Entwickler die kein Copiloten haben neue Software es gibt ein Startup das heißt Devin das nach nur 6 Monaten 2 Milliarden Dollar wert ist weil sie den ersten vollk automatisierten Entwickler bauen möchten amazon hat einen inhaus Copiloten für Entwicklung gebaut und bietet den anderen Unternehmen an ja also es gibt schon Unternehmen die signifikant Umsatz machen und Produktivität rausholen indem sie ai einsetzen Bloomberg glaubt das generative ai bis 2030 ein 900 Milliarden Markt ist letztes Jahr war das in meinem Kopf eigentlich so meine kernfolie ich glaube diese ganzen Foundation Models large language models werden nicht irrelevant aber welches wir nutzen wird irrelevant die werden commoditized das ist so als wenn ich entscheide ob ich meine Webseite irgendwie in GSP oder PHP schreibe ob ich eine MongoDB oder inodb oder MySQL nehme was für eine Datenbank ich nutze das ist Open Source wahrscheinlich am Ende und es wird schwer damit Geld zu verdienen glaube ich immer noch was ich gesagt habe ist dass was wichtig wird sind Daten eigene Daten exklusive Daten Hardware und Distribution Modelle gibt’s wie äh wie sagt man Sand am Meer es gibt inzwischen 150 large language Models und es kommen täglich neue raus diese Modell Modelle schlagen sich ständig gegenseitig werden immer schneller immer besser Mistral schlägt Gemini Gemini schlägt irgendwie entropic clot und das neue Metamodell schlägt wieder alle anderen und so weiter jede Woche oder wenn man unseren Podcast hör jede Woche reden wir über irgendein Modell was wieder das an das letzte beste Modell geschlagen hat und es ist überhaupt nicht abzusehen ob jemand einen signifikanten Vorsprung äh Ringen kann darin was man aber absehen kann ist diese Beschleunigung die wir erfahren die rechte Grafik zeigt ganz einfach gesagt es wurden tausende Wissenschaftler befragt die die sich mit dem Thema auskennen ai der blaue Punkt ist was sie 2022 geantwortet haben wann diese Tasks ersetzt werden der rote Punkt ist was sie letztes Jahr 2023 glaubenten wann diese Tasks oder diese diese Aufgaben ersetzt werden können von AI und was man ganz klar sieht mit Ausnahme von gamingfällen ganz unten ist dass alles nach vorne gezogen wird Menschen die sich tagtäglich mit AI beschäftigen glauben dass alle diese milestones deutlich früher erreicht werden nach nur einem Jahr Entwicklung in deri und ich würde davon ausgehen dass ich weiter beschleunigt auch die hlmi ist high level machine intelligence glauben die meisten Wissenschaftler dass sie früher erreicht wird foal ist full automation of labber also alle Arbeit kann ersetzt werden auch das hat sich deutlich nach oben links verlagert also Wissenschaftler glaub das wird früher eintreten als bisher antizipiert diese Modelle werden immer schlauer sie werden schlauer als die schlauesten Menschen in den Sachen wo man sie testen kann und wo sie wirklich gut drin sind und sie sind so schlau in 200 Sprachen gleichzeitig das dürfen wir nicht vergessen bei allen Dingen die wir testen können kommen Modelle an menschliche Fähigkeiten ran sie sind nicht wirklich intelligent ja aber sie können menschliche Fähigkeiten in vielen vielen vielen Gebieten schlagen insbesondere z.B captures inzwischen captures klären weiterhin ob man Mensch oder Maschine ist aber inzwischen funktionieren sie anders rum nämlich das Maschinen sie besser lösen können als Menschen ich habe in zum Test in Google Gemini einmal ein capture reingepastet gefragt was zeigt mir dieses capture und es sagt was da drauf steht und es erklärt mir noch was ich nicht wusste das capture für completely automated public Touring test to tell computers and humans apart steht habe ich was gelernt alle Modelle sind inzwischen multimodal das heißt ich kann einfach Grafiken reinschmeißen oder ich kann Fragen dass ich Grafiken oder Videos rausbekomme ich kann ein Modell ein Video geben und sagen F mir das zusammen multimodal heißt sousagen es muss nicht mehr Text Text sein ähm ich habe mal dieses diesen Werbestand in ein Modell rein auch in Google Jamin reinkopiert und gesagt mach mir eine ähnliche Kampagne wie das irgendwas kreatives und man sieht wie gut das erkennt was das ist das sagt das ist ein Aldi Store kein Lidl Store sondern Aldi Store man könnte es für Lidl eine andere Kampagne machen ist erkennt dass das ein Fake landing Spot für Center ist also versteht genau was was es sehen kann auf diesem Bild und es schlägt mir ein Alternativen vor aber diese Modelle werden auch immer teurer zu trainieren google gerinal hat über 100 Millionen gekostet und der Grund dafür ist das Thema was ich letztes Jahr schon besprochen habe die Hardware und warum Hardware so essentiell ist im Hintergrund sieht man den neuest die neueste Generation Nvidia Chips der Blackwell 200 Chip der hat 20.000 terfops statt 5000 vorher also innerhalb von zwe Jahr 4000 innerhalb von 2 Jahren konnte wieder die Performance dieser Chips ver fünf faen der Grund liegt daran dass wir diese Chips im diese Transistoren die kleinen 01 Schalter in den Chips immer kleiner bauen können sind 50 Nanometer groß niemand weiß was ein Nanometer ist 50 Nanometer ist kleiner als dieses Virus das Virus wo wir Millionen von raushusten können das vollkommen unsichtbar ist dieser Chip ist noch kleiner als das Virus menschliches Haar ist 2000 mal dick als so ein Chip und von diesem auf dem reisßkorn würden eine Milliarde Chips nicht Chips sondern Entschuldigung Transistoren passen so letzt J habe ich gesagt alle techkonzerne bauen ihre eigenen Chips google hat einen neuen Chip entwickelt den Axon vorher hat Google 2015 hat Google angefangen eigene tpus zu bauen Tensor processing units die eigentlich nur für AI gedacht sind 2015 hat Google gemerkt wir brauchen eigene Chips um das AI Rennen zu gewinnen jetzt haben sie eine zweite chipgenation gebaut die andere Aufgabe hat den Axion selbst Apple die letztes Jahr noch keinen hatten und Meta haben dieses Jahr begonnen Chips zu bauen Meta baut die mtias das ist steht für metatraaining und inference Accelerator und Apple soll gerade mit TSMC was der größte chipproduzent der Welt ist an einem eigenen Chip Arbeiten es gibt aber eine ganz neue ein ganz neues Level an Computing nämlich exascale Computing das was ihr seht ist sozusagen das sogenannte m law dass ich alle paar Jahre die Rechen Kapazität oder die Anzahl der Transistoren damit die Rechen le das ist eine logarithmische Skala verdoppelt und was man gut sieht ist dass die Firma zerebras W unseren Podcast hört hat vielleicht schon mal gehört im letzten OMR Podcast habe ich drüber geredet auch die hat einfach mal von von 100 Milliarden Transistoren auf eine eine was ist das dann eine Billion Transistoren sozusagen eine ganze zehnerptenz diesen Graf höher verlegt was was die machen ist statt kleine Chips es gibt diese halbleiterscheiben die kennt ihr vielleicht so wo die die Leute im Labor mit diesen rumlaufen den Halbleiter Scheiben die die sind übrigens so eingekleidet weil wenn man z.B wenn ich heute im Hotel den Messing Knauf meiner t an Tür anfasse dann würden die Kupferatome die noch an meiner Hand sind würden die gesamte Produktion also so so fein sind so empfindlich sind diese Chips wie auch immer auf jeden Fall statt aus so einer Scheibe kleine Chips rauszustanzen wird die ganze Scheibe zu einem großen Chip sozusagen diese ganze Scheibe rechnet nicht kleine Chips die man zusammen steckt und dch ist es einfach nicht nur größer sondern vor allen Dingen kann es viel schneller miteinander kommunizieren es kann viel schneller kleine Bits in den Speicher rein und rausschreiben und diese Wafer scale Engine also diese Computer die so groß sind wie ein Wafer sind 57 mal größer aber vor allem sind haben sie 52 mal so viele prozessorenkerne und 900 mal so viel Speicher verbraucht und Sie können mit diesem Speicher 7000 Mal schneller als normale Rechner kommunizieren dann kann man einfach diese wferscheiben ganz viele in einen Server stecken und dann steckt man ganz viele dieser Server zusammen und man hat den größten Supercomputer der Welt der vier exaflops rechnet jetzt weiß keiner was vier exaflops sind oder was 4 Millionen Kerne können aber man muss jetzt vorstellen das ist eine halbe Million MacBooks oder die OMR gerade ne mehr eine halbe Million MacBooks die gleichzeitig rechnen und das führt dazu dass das letzte Lama Modell vorletzte Lama Modell was Meta ein Monat lang berechnen hat könnte man mit dem Setup an einem Tag berechnen es gibt eine Firma die die grock in die ich kürzlich investieren durfte ein ganz kleinen Betrag die für inferenzchips baut die besonders schnell Modelle die kann keine Modelle Trieren oder nicht besonders gut trainieren aber sie kann besonders gut Antworten geben mit bestehenden Modellen ist dabei deutlich schneller deutlich günstiger als alle anderen Modelle es gibt corewave hat gestern gerade neues funding bekannt gegeben hat seine seine Bewertung innerhalb von 5 Monaten verdreifacht auf 19 Millionen corwef macht nichts anderes als Nvidia also es ist eine AWS für Nvidias also für für AI Training sie vermieten nur Nvidia ships sie haben guten Zugang zu Nvidia Chips vermieten die haben 20 Milliarden V damit aufgebaut wir haben letztes Mal über Risiken und ne Nebenwirkung gesprochen von AI und natürlich hat der Clown angefangen Fake Images zu nutzen um da damit Wahlkampfwerbung zu machen das ist ein Foto was niemals so hätte entstehen können es wird aber von Donald Trump eingesetzt um schwarze wler zu gewinnen ich habe letztes mal erzählt dass wir eigentlich weil wir nicht mehr wissen wer uns wir werden so viel Content haben und so viel Fake Konversation mit AI dass wir eigentlich wollen ich will eigentlich dass jemand der mir was schickt mit seinem Fingerscan oder retin Scan sich authentifiziert damit ich weiß ist das überhaupt von dem Mensch geschrieben und ich habe gesagt dass dieses Projekt worldcoin genau dieses Gerät erfunden hat dass das macht oder ja zusammengebaut hat dass dieses Projekt von dem deutschen und Sam Oldman gegründet wurde hätte man nach der letzten Präsentation den World coin gekauft der so als Krypto Projekt dazu gehört hätte man sein Geld kurzfristig verzehnfachen können und wä immer noch 3 280% im Plus heute wir haben contenttinflation ich habe gerade drüber geredet kenttinlation sag geben dass jeder kann zu ohne ohne Geld kann Content generieren unter anderem war LinkedIn mir z.B erlaubt automatisch mit ein paar Sätzen eine LinkedIn Post zu kriieren mit mit AI da hat jetzt jemand zurückgeschlagen und sagt wenn LinkedIn das Kreieren kann dann kann ich es auch mit AI beantworten und hat ein Bot gebaut ähm der vollkommen autom also er nennt es ein Monster äh das einfach vollkommen automatisiert mit einem Klick sämtliche LinkedIn Post äh beantworten kann zack fertig und auf eine sinnv ob sinnvoll weiß man nicht worüber ich bei den Gefahren letztte mal nicht geredet habe sind die humanen Kosten von AI die Menschen die gleichen Menschen die normalerweise Content Moderation machen also Kinder Kinderpornos oder Gewalt rausfiltern müssen aus Youtube oder aus aus Facebook und aus anderen sozialen Plattform arbeiten inzwischen daran Daten zu Labeln das heißt damit diese ganzen Modelle lernen können sitzen irgendwo in Südostasien Millionen von Menschen die nur sagen das ist eine Katze das ist ein Hund das ist ein Auto das ist eine Ampel wenn wir es nicht selber in capters machen ich habe letztes mal gesagt dass jetzt jeder Idiot ich kann nicht mit Paint umgehen nicht mit powersh Photoshop aber ich konnte letztes Jahr diese Bilder innerhalb von Minuten generieren mitjourney mitjourney ist noch mal deutlich besser geworden ganz links ist mit journey vor 2i Jahren in der Mitte war ungefähr letztes Jahr rechts ist wie gut wie hyperrealistisch mit journey heute arbeitet in der Zwischenzeit hat open auch sein erstes videomodell Sora rausgegeben dass Hollywood Angst und Schrecken einjagt weil es qualitativ in der ersten Version schon sehr sehr gut ist wir haben über Hardware geredet wir haben noch nicht über Daten geredet kleine Anekdote ich war vor einem halben Jahrer letzten Sommer in dem Elite und Universum so ein Internat wo hochintelligente Menschen äh unterrichtet werden und habe da den gleichen oder den gleichen Vortrag wie letztes Jahr gehalten und habe unter anderem diesen Chart gezeigt dass diese Modelle werden immer größer wir haben mehr Hardware bessere Software mehr Parameter mehr Daten die wir da reinfüttern und hab damit gesagt die AI wird immer immer besser werden immer immer besser es hört nie wieder auf und unter anderem verbessern sich die Modelle auch selbst inzwischen sie können sich selber Dinge beibringen Software verbessert Software und exponentielles Wachstum habe ich gesagt nach der nach dem Vortrag kommt ein 14-jähriges Mädchen zu mir und sagt sie haben da was falsches gesagt und ich you ger my attention hab sie gefragt sie hat gesagt irgendwann sind die Daten doch alle und sie hatte vollkommen Recht eins der ersten Probleme auf das wir stoßen ist dass das Internet zu klein ist wir haben zu wenig digitale Daten in diesen Trillionen von Tokens mit denen diese Modelle trainiert werden ist schon ein Großteil des Internets und der der Bücher der Wikipedia die wir haben mit drin und im Moment haben riesiges Problem noch neue Daten zu finden unter anderem hat open ai angeblich deswegen Youtube Videos transcribed umgeschrieben um dann aus den Texten wieder zu lernen ich habe letztes mal gesagt dass ein großer Teil der Daten oder ein großes Gewicht auf den reddit Daten webtext 2 sind Webseiten die von reddit verlinkt werden die werden fünffach überbewertet und kommen so auf eine 20przentige Gewichtung in den Daten damit ist reddit zu dem einfachsten Weg geworden ai zu manipulieren und natürlich fangen SEOs oder general ai Optimierer jetzt an auf Reddit Artikel zu verlinken die der AI den Eindruck geben sie hätten besonders attraktives Unternehmen oder sind besonders faszinierende Persönlichkeit also reddit hat wird ein riesen Problem damit haben ihre Daten sauber zu halten weil es von allen Seiten Angriffen wird weil alle wissen dass die AI sozusagen reddit so viel so viel Gewicht geben wer reddit auch viel Gewicht gibt ist Google die haben nämlich 60 Millionen pro Jahr gezahlt um exklusiv Zugang zu den Daten von reddit zu haben ich habe das Gefühl sie haben google hat noch ein bisschen mehr als 60 Millionen bezahlt das ist nämlich die Sichtbarkeit in Google von reddit seit 2019 aber man sieht was sozusagen Mitte letzten Jahres passiert ist Google glaubt auf einmal dass reddit zehn Mal relevanter ist als in den ganzen Jahren zuvor also 10 Jahre lang war der Content von reddit scheiße jetzt ist er auf einmal sehr sehr se gut so ein Deal mit google möchte jeder SEO auch haben aber es geht um Daten weiß weiß jemand wer das hab was das Habsburger Problem ist nicht okay also ich lass mal laufen und ihr kommt so ein bisschen dran was mit den Habsburgern komisch war oh das war ich nicht das war die eii das ein Habsburger und zwar hatten die ein sehr aristokratisches Kind sage ich jetzt mal und die sogenannte Habsburger Lippe das liegt daran dass derern Stammbaum so aussieht da wo normalerweise 32 verschiedene urvorfahren sind gab’s bei den Habsburger nur die zehn gleichen und dieser Karl I Z von dessen Urgroßeltern wovon man normalerweise acht hat hatten sechs den gleichen Vorfahren also es ist ein insuchtproblem und das gleiche passiert mit AI wenn Modelle auf Daten trainiert werden die selber von generiert worden sind also generative ai schreibt das ganze Internet voll jemand holt das aus dem webindex raus und lernt darauf wieder und die gleichen Inhalte werden immer und immer immer wieder sozusagen neu erzeugt und rausgegeben und jemand lernt wieder draus dann kommt zu diesem Habsburger Problem nämlich dass Modelle fast kollabieren die auch von einem Tag auf dem anderen liefern sie extrem schlechte Ergebnisse weil sie nur noch mit Daten die sozusagen schon vorher drin waren gefüttert werden das heißt exklusive Daten werden die die großen Schätze der Zukunft werden deswegen wer jetzt ein Videoarchiv hat was noch nicht öffentlich ist wer private messaging Daten hat vielleicht wer synthetische Daten generieren kann man kann Daten auch so synthetisieren und daraus lernen ohne ein Habsburger Problem zu bekommen oder wer analogen Text hat der noch gar nicht digitalisiert ist der sitzt eigentlich aufschätzen das ist die brennende Bibliothek von Alexandria warum zeige ich die 2002 2002 vor 20 Jahren die Jüngeren älterin werden sich erinnern hat Google mal angefangen alle Bücher der Welt zu scannen die sind zu zu Bibliotheken gegangen hab gesagt hi wir sind Google wir sind die guten wir würden kostenlos alle eure Bücher scannen ihr kriegt danach in eurer Bibliothek eine digitale Version davon und wir würden das gerne gerne Google Books nutzen so hat Google 25 Millionen Bücher gescannt zum Vergleich in diesem Chart den ich vorhin gezeigt habe aus woher die Daten kommen in diesem Modul books was in den meisten Modellen drin ist stecken nur wenige tausend Bücher also GPT 3.5 wurde aus wenigen Taus Bücher gelernt google hat 25 Millionen Bücher gescannt dann wurde ihn untersagt Google booksweiter zu betreiben weil die Copyright Lage unklar war was sie nicht untersagt wurde ist diese Bücher intern weiter zu nutzen und deswegen hat the Atlantic kürzlich getitelt dass Google wortwörtlich die Bibliothek von Alexandria wieder anzündet weil sie quasi diese Bücher selber nutzen und gleichzeitig also man kann sie durchsuchen mit Google Books und so weiter und die die wo das copy geklärt ist die kann man auch angucken aber vor allen Dingen hat Google 25 Millionen Bücher die niemand anders hat gerade was super wertvoll ist überhaupt das freie Internet hat wahrscheinlich den Höhepunkt überlebt Menschen die Content besitzen müssen sich jetzt entscheiden ob sie mit Google oder anderen ai companies paktieren oder ob sie sie verklagen oder ob sie es alle diese Roboter aussperren es gibt viele Verlage achelspringer die Financial Times z.B und andere haben sich entschlossen Deal zu machen machen mit äh openi andere klagen gerade wie die New York Times äh ein anderes Problem wo wir über Daten reden müssen wir auch über Datenschutz reden mit der Begründung unserer Arbeit effizienter zu machen wird uns in Zukunft ständig auf die Hände geguckt werden egal was für eine Arbeit ihr macht ihr werdet entweder von dem von dem Programm von der Kamera oder von Sensoren überwacht werden damit Maschinen lernen können wie ihr eure Arbeit macht das wird ein ein riesiger ein ein ein ähm na Einbruch in die Privatsphäre werden mit der Begründung dass man euch dann aber ersetzen kann bald worüber wir noch nicht geredet haben ist Distribution ich bin nach wie vor der Meinung dass Distribution unheimlich wichtig ist und dass deswegen die großen techkonzerne auch am meisten profitieren werden unter anderem der da da deswegen aber es definitiv viel zu früh zu sagen ob irgendein eine ai Companie jetzt diesen Markt schon gewonnen hat im Moment versuchen die großen techkonzerne uns mehr oder weniger zu zwingen ihre zu nutzen die meisten Leute wollen es gar nicht in vielen Produkten ist es so drin ohne dass wir es wissen überall erscheinen jetzt so kleine Copiloten die wir nutzen sollen wie die Distribution am Ende aussehen wird weiß noch keiner was spannend wird nächsten Monat wird Apple bekannt geben sozusagen was auf dem iPhone laufen wird wird es ein eigenes Modell sein wird’s Google sein sie reden auch mit Open ai sie reden mit allen das könnte spannt werden sozusagen welche ai ü iPhone vertrieben wird dann ein Problem was ich letztes Jahr überhaupt noch nicht gesehen habe ist ein sehr großes und zwar der Energiehunger von AI die Internationale Energieagentur hat gewarnt dass im Moment Krypto und ai ungefähr 2% der des Stromverbrauchs der Welt ausmachen das könnte schnell auf über 10% steigen in den nächsten Jahren letzten Monat ist ein Dokument von Microsoft geliegt wo drin steht dass Microsoft 5 gigaw an Daten Datacenter Ressourcen aufgebaut hat 5 Gig also ist der gleichzeit Stromverbrauch oder Stromaufnahme dieser Datenzentren die Google let die Microsoft in letzten Zeit aufgebaut ist wer sich nicht vorstellen kann was 5 gigaw sind das sind die letzten drei Atomkraftwerke die wir in Deutschland abgeschaltet haben die hätten laufen müssen weiterlaufen müssen damit Microsoft seine dat Center betreiben kann und Microsoft baut weiter neue Datacenter Datacenter sind immer so ein paar hundert also zwischen 50 und 200 meggaw das klingt schlimm ich dachte zum Glück baut Microsoft ja nicht jede Woche Center es baut ungefähr bis zu zwei Datacenter pro Woche im Moment nur Microsoft m und wird damit weitere Gigawatt ans ans Netz nehmen inzwischen sind die großen techkonzerne haben so einen großen Energiehunger dass Sie mehr Energie verbrauchen als BASF BSF ist wahrscheinlich eins der größten Energieverbraucher der Welt verbraucht 60 Terawattstunden das ist so viel wie die Schweiz allein Ludwigshafen verbraucht ein Zehntel davon der Rest ist sozusagen BSS auf der Welt oder Leuner oder andere Werke ähm aber diese techonzern und da ist Amazon nicht dabei weil Amazon diese Zahlen nicht rausgibt alle anderen machen das in inen sustainability Reports Amazon gibt diese Zahl Zahlen nicht raus aber Amazon ist der große größte cloudhoster der Welt also natürlich werden Sie ein lichen ähnlichen Stromverbrauch haben ähm in wenigen Jahren werden sie ein Vielfaches davon verbrauchen und warum ganz offensichtlich diese NVIDIA GPUs diese diese Chips die verbrauchen 700 Watt bei maximaler Leistung äh also wenn sie richtig Qualm das ist ungefähr was ein balkonkraftwerk erzeugen könnte wenn es bei Vollast laufen würde tatsächlich erreicht das so ein Achtel ungefähr der Kapazität im besten Fall das heißt eigentlich braucht man acht neun balkonkraftwerke um eine so eine GPU zu betreiben also acht balkonkraftwerk ist eigentlich ein einfamilienhausdach ja also jedes Mal wenn Nvidia eine GPU verkauft muss irgendjemand eigentlich eine solaranlageer auf neu auf ein Haus bauen und so schnell kommt Waldemar gar nicht hinterher mit balkonkraftwerken ähm das Problem ist dass Nvidia 2 Millionen dieser GPUs baut dieses Jahr und nächstes Jahr noch mehr das heißt 2 Millionen Häuserdächer müssen wir eigentlich jedes Jahr bepflastern damit wenn ihr in irgendeiner Branche sein sein wollt dann Datencenter bauen die ganzen Infrastrukturfonds investieren gerade im Datencenter eine boomende Industrie aber wir warum reden wir be Strom weil Strom und ai nicht mehr zu trennen ist Mark Zuckerberg Sam Oldman halten Strom gerade für den größten Inhibitor von AI Fortschritt ja ja und versuchen sich alle gerade Zugang zu strompools zu sichern weil man kann Strom gar nicht so schnell ausbauen wie wie sie da alle datenzentern bauen wollen das vielleicht auch ein Grund warum Sam ordm seit Jahren in Kern Kernspaltung und kernfusionstups investiert weil er dieses Problem wie so viele sehr sehr früh erkannt hat zum Glück investiert er nicht nur in Kernforschung sondern auch in tatsächlich grüne Lösung unter anderem exowat das ist ein D in in1 Wärmekraftwerk das oben das ist nicht eine solarplatte sondern ein wärmekollektor also es nimmt nicht Sonnenenergie sondern also schon Sonnen Wärme auf aber macht daraus Wärme und Wärme ist einfacher und billiger zu speichern als Energie man braucht halt kein Litium keine Schwermetalle sondern man kann einfach die die wärmeichern über ein Wärmekraftwerk wieder in Strom umwandeln so kann man tagsüber wärmeespeichern und nachts wenn z.B andere Energiequellen versiegt sind damit Grundlast erschaffen und davon baut man einfach so viele wie man braucht neben einen Datacenter und kann unter einem Cent pro Kilowattstunde Strom erzeugen ja also es macht keinen Sinn mehr irgendein AKW zu bauen oder ein Fusionsreaktor wenn du das hast eigentlich und was man auch sagen muss ist ich habe gestern hier auf der Bühne gesagt es gibt kein Problem dass Ai schafft was Ei nicht auch lösen kann und ai hat auch geholfen z.B große Durchbrüche bei der kernf zu ermöglichen erst und egal wie viel Energie diese ganze generative ai verbraucht ist verbraucht tatsächlich also wenn ich mich mit Photoshop hinsetze und was baue braucht das am Ende verbraucht das am Ende mehr Energie als würde es eine ai für mich machen das muss man fairerweise auch sagen ein weiteres Problem was mir nicht bewusst war war dass das auch viel Wasser verbraucht einfach gesagt kann man sagen für jede Kilowattstunde die verbraucht wird im Datacenter werden ungefähr 2 l Wasser Verbrauch oder ein ch gbt Verlauf den ihr macht wird ein halber Liter frischwer gekostet haben microsoft hat dementsprechend sein Wasserverbrauch um 34% steigern müssen letztes Jahr auf ungefähr 7 Milliarden Liter jetzt schreiben Sie rechts dass sie aber auch 16 Milliarden freshwater replan haben jetzt also wenn einer von euch mir sagt wie man den den den trinkwasserspiegel wieder anhebt wäre ich gespannt weil ich glaub man kann Wasser nicht so einfach zurückgeben an die Welt das versuchen aber gerade alle großen techkonzerne und Unternehmen uns weiß machen zu lassen und jetzt sieht recht so aus als wenn sie 16 Milliarden zurückgeben aber da steht genau genommen das sind die Projekte die Sie gestartet haben und was die über ihre gesamte Lebenszeit an Wasser zurückgeben werden an Communities tatsächlich ist das alles so ein bisschen wie dieses Carbon wie heißt das Carbon compensation das heißt ich sauf in Arizona die Wüste leer und nehme da eine Milliarde Wasser weg und dann baue ich ein paar Buren in Indien und sag ich bin jetzt wasserneutral oder wasserpitiv ja wenn man da links untenin steht D steht in dem gesamten Jahr ich glaube 22 ist das hat Microsoft 7 Millionen Dollar ausgegeben um Wasser wieder herzustellen ich glaube nicht dass man für 7 Millionen Dollar diese 7 Milliarden Liter fördern kann ehrlich gesagt ich habe mal in unser Doppelgänger sheed geschaut und geschaut microsoft macht ungefähr 106 Milliarden Dollar Gewinn ja das heißt in der Zeit wo ich diese Rede halte wird m auf diese 7 Millionen die sie für Wasser Rückgewinnung ausgeben verdient haben google hat natürlich also jeder techkonzern hat das gleiche Problem Google verbraucht so viel in 2021 wie 30 golfplätz es gibt golfplatzäquivalente ein großes das größte Datacenter brauchst so viel wie fünf Golfplätze ungefähr google wird ungefähr dieses Jahr 30 Milliarden Liter Wasser verbrauchen das ist als wenn es zehn Mal die Außenalster leeräuft in einem Jahr aber es gibt auch 271 Millionen zurück das ist alles was durch die Alster Fontäne in einem Jahr geschossen wird also die könnte man sagen wird von Google Betrieben ähm google will aber sogar 120% ist was das was es verbraucht zurückgeben ich habe gerade gesagt das geht gar nicht aber und das Target ist auch schon fast erreicht nämlich 6%. aber sie haben noch Zeit bis 2030 um auf 120 zu kommen ähm diesen ganzen Quatsch erfunden hat übrigens mal Coca-Cola die haben gesagt für jeden jeden Tropfen Wasser den wir nutzen geben wir ähm einen zurück das hat sich sehr schnell rausgestellt dass das Bullshit ist weil sie das Wasser was für die Flaschen verbraucht wird fürs Plastik und fürs Recycling und so weiter gar nicht mit im Betracht gezogen haben und heute sieht die Kampagnenseite so aus für den wir habe ich keine Zeit mehr also was ich eigentlich nur will ist dass wenn ihr in Zukunft die Begriffe water replanishment water stewardship water positive hört dass ihr an dieses SL denkt so aber ich habe gesagt nichts was ai verursacht kann man nicht auch mit AI heilen ai eins der ersten Projekt die Google deepmind gemacht hat ist den Wasserverbrauch der Datacenter um 40% mit AI zu senken also auch das Problem kann man lösen der wichtigste Teil ich finde es wird viel zu viel über ai Industrie Content Marketing all das gesprochen viel wichtiger ist was ai für die Wissenschaft leisten kann unsere fangen wir mal an mit M Gemini das ist basiert auf das Google Gemini large language Model und hat eine 91,1%zentige Genauigkeit bei Anworten geschafft jetzt muss auch dazu sagen dass 7,4% der Fragen so schlecht gestellt waren haben Menschen hinterher gesagt dass man sie gar nicht richtig beantworten kann aber 91% Genauigkeit hat mat Gemini geschafft jetzt würde ich sagen das ist mir eigentlich zu wenig ich gehe nicht zum Arzt wenn ich 91% Genauigkeit habe das Problem ist ihr geht zu einem Arzt der 87% Genauigkeit habt weil menschliche Ärzte keinesfalls besser sind als das also Ärzte oder Ärztinnen die das Examen bestehen sind ungefähr bei 60% und tatsächliche Fachexperten bei 87 % Genauigkeit dieses Modell ist besser und selbst das Vorgängermodell medpalm war nicht nur schon besser als die meisten Ärzte es wurde von Patienten und Experten auch als empathischer als die menschlichen Ärzte wahrgenommen also wenn ihr solche Ärzte seht lauft das ist der Arzt den ihr wollt warum ist das so wichtig für Wissenschaft ai Wissenschaft funktioniert im Moment wie die Nadel im Heuhaufen suchen ja wir testen manuell 10taus verschiedene Möglichkeiten von irgendwas und ai kann uns einfach helfen das vorzuerechnen z.B alphafold kann vorberechnen wie Aminosäuren in in Proteinen sich falten und kann dadurch konnte 300 Millionen verschiedene mögliche 200 Millionen verschiedene Proteine synthetisieren oder zumindest s also ein virtuellen Zwilling davon bauen und damit kann man einfach schon vorher schauen welche welche Verbindungen überhaupt stabil sind und welche nicht und kanandidaten finden unter anderen z.B um die letzten Kranken aus Keime zu gönen seit 60 Jahren seit wir Penicillin erfunden haben und ein paar cephalospurine so womit man dann multiresistente Keime kaputt kriegen könnte theoretisch Breitband Antibiotika seit 60 Jahren haben wir nichts Neues mehr erfunden da aber durch ai haben wir jetzt zwei neue Kandidaten gefunden die theoretisch wirksam gegen mrssa ist metizillin resistente staphilococcus aureus das sind diese Krankenhauskeime die multiresistent sind die von keinem oder von den meisten Antibiotikas nicht mehr gekillt werden können aber durch ai haben wir aus hertausenden von Kandidaten konnten ich glaube 180 rausgefiltert werden die sich lohnt zu testen und da wurden wurden Zweige vonen die wirksam sein konnten ähm es ist mindestens genauso spannend für Materialwissenschaft ähm mit Hilfe von Gnom hat man äh Hunderttausende von kristallinen Strukturen entdeckt die wir nicht kannten vorher die aber möglich sind durch chemische also die chemische Verbindung eingehen können die stabil sein werden äh die wir vor nicht kannten und und man kann z.B äh für Batterietechnologie Ersatz für Litium wir wissen wir werden bald kein litiium mehr haben durch die ganzen Batterien die wir bauen wollen man kann Litium aber mit Natrium mit Kochsalz also mit dem Bestandteil von Kochsalz und Salz gibt’s genug auf der Welt ersetzen und das hat ai rausgefunden und ich glaube der der der durchsbruch den wir erleben werden in der Wissenschaft ist eigentlich das spannendste in der eii dass ist sozusagen unser die gesamte Entwicklung der Menschheit heben wird und es natürlich in Medizin in Physik Materialwissenschaft riesige Durchbrüche geben können wird die wir uns noch gar nicht vorstellen können wenn diese Modelle auch noch anfangen eventuell Probleme zu lösen man kann Wetter besser vorher sagen mit eii natürlich in Hamburg braucht man das nicht was auch noch spannend wird dieses Jahr glaube ich und letztes Jahr noch gar nicht so spannend war ist das Thema Robotics nicht nur bei Tesla sondern auf der G oder bei Boston dynamic auf der ganzen Welt werden eigentlich gerade Roboter gebaut die uns das Leben erleichtern werden in der Zukunft das ist eine Firma die heißt Agility Robotics Logistik ich habe vor einem Monat Logistiker gereden der geht fest davon aus dass bis Z bis 2030 20 30% der Jobs wegfallen werden und an Roboter gehen weil Roboter unermütlich unermütlich arbeiten können und die Arbeit machen kann die uns Tag und Nacht schwer fällt das ist der Tesla Roboter der kann Batterien schon zusammenstecken äh relativ genau das ist glaube ich ein relativ junges Video genau sehr präzise und der Grund warum diese Roboter so aussehen wie Menschen ist nicht nur dass sie menschliche Arbeit machen können der Grund ist dass sie besonders schnell von Menschen lernen können weil die Roboter müssen Menschen nur beobachten oder etwas vormachen sehen und können dann lernen sozusagen über über künstliche Intelligenz lernen was sie machen wir müssen den Roboter nicht programmieren was er macht sondern wir bauen ihn nach unserem Vorbild damit er von unserem Vorbild lernen kann das ist figi die Arbeiten mit BMW zusammen z.B und können der kann Kaffee [Musik] kochen na ja jetzt auch nicht so spannend was spannend ist ist Open Source Open Source ist das Konzept dass man Software zur Verfügung stellt kostenlos dass alle daran mitarbeiten können und was definitiv nicht Open Source ist ist Open ai openi ist ein der verschlossensten Firmen der Welt geworden was hochprematisch ist wenn man überlegt dass sie künstliche oder Art general intelligence also super Intelligenz bauen wollen und wie viel Macht sozusagen in der Person von Sam man konzentriert ist ist definitiv problematisch aber das Gute ist es gibt viele Open Source Firmen die es schaffen Open Source Modell zu bauen die absolut vergleichbar mächtig werden wie die Modelle von openi z.B Mistral aus Frankfurt äh aus Frankfurt aus Frankreich ähm ein ehemaliger Googler und ein bei Facebook Angestellter haben das gebaut und haben es innerhalb von einem halben Jahr geschafft oder innerhalb von weniger Monat weniger Monaten geschafft die viele der gängigen Modelle vom Stand wegzuschlagen mit mit ihrem ersten Modell und es wird weiterhin besser ausgerechnet Meta wird sozusagen der Overlord der der Open Source und hat mit Lama 3 Modell gebaut was viele kommerzielle Modelle inzwischen schlägt das ein bisschen langweilig ähm wie sind die beiden beste Freunde geworden rechts ist der CEO von Nvidia links ist Mark sackerberg die fand es lustig Jacken zu tauschen verstehe ich nicht ich weiß nicht warum Mark Zuckerberg so happy ist ich weiß aber warum Jenson Wang so happy ist den Start habt ihr n nicht schon mal gesehen weil Meta der größte Kunde von Nvidia ist Meta wird dieses Jahr bis zu 40 Milliarden Dollar in AI Chips ausgeben und in AI in investieren die sie dann Open Source machen zum Vergleich 40 Milliarden das Apollo Programm hat in heutigen Dollars 29 Milliarden gekostet das hat zwei Menschen auf den auf den Mond gebracht und tausende oder nicht 1us aber z Trägerraketen in die Luft gejagt und das ist das Geld was Meta ab jetzt jedes Jahr in AI investiert um dann Open Source allen zurückzugeben das klingt dumm macht aber wahrscheinlich doch Sinn einerseits weil man weil Meter dadurch tatsächlich Tracking deutlich verbessern konnte mit Hilfe von AI und das Tracking Problem was Apple ihn auferlegt hat lösen konnte sie können Ihr Ranking und recommendation System verbessern sie können Chatbots und Copiloten anbieten die jetzt schon überall in Instagram und so sieht sie können bei der Unterstützung also können neuen Content schaffen helfen und Sie können vor allen Dingen das AI Rennen für alle anderen so ein bisschen beenden damit weil im Moment haben wir das Problem die großen techkonzerne haben ihre super mächtigen Modelle so ein bisschen wie nuklearbomben die großen Atommächte haben nuklearbomben und alle anderen haben Problem und was Meta macht ist einfach jedem jedem die Atomwaffe zu geben indem sie Open Source eins der besten Modelle anbieten und dadurch den Gewinn für alle anderen ruinieren so ein bisschen auch und warum sollte das anders aussehen als im Internet damals wo eigentlich fast alles was Infrastruktur ist Open Source war ich bin fast in der Zeit und fast fertig bin bisschen überrascht [Musik] darüber haben wir gestern schon auf der Bühne ein bisschen geredet und im im Podcast auch ist es vollkommen klar dass souveräne Städten Städte eigene Modelle wollen es gibt Länder in der Welt die wollen keine westlichen llms die haben andere Definition von Kultur andere Definition vonon von von Wahrheit deswegen ist vollkommen klar dass China Russland der Iran hat ein eigenes LLM ein LLM muss auch die lokale Kultur wahrscheinlich m irgendwie vertreten sonst wird es in vielen Bereichen der Welt nicht anwendbar sein es gibt in China ein Modell das so gut ist dass GPT V Turbo schlägt senstime 5 pun n0 heißt das es macht allein auch schon deswegen Sinn weil die meisten Modelle auf Content kreiert sind der überwiegend in englischer Sprache geschrieben wurde das heißt allein um z.B indische Menschen die die Hindi sprechen oder Bengali oder Leute die in Philippinen leben oder so sozusagen mit einzubeziehen muss man spezialisierte souveräne Modelle aufbauen wir haben das leider noch nicht geschafft Alif Alpha ist eine der wenigen companies die noch genau gar kein Modell submit hat bei hugging face der plat ich hoffe dass wenn ich nächstes Jahr vielleicht einen ähnlichen Vortrag wiederhalte dass wir dann auch ein schönes deutsches Modell schon haben was wir noch mehr sehen werden ist schlankere Modelle Modelle werden kleiner werden weniger stromverbrauchen weniger Daten brauchen es gibt mix of es wird mix of experts Modelle geben wo für jede Frage ein anderes spezialisiertes Modell gefragt wird es gibt compound Models die so schrittweise übereinander lagernd Dinge beantworten wir werden weiter viel Investment sehen in AI das Problem ist die das Investment kommt nur von oder hauptsächlich von den großen Tech companies zwei Drittel der investments in generative ai wurden von den großen techkonzernen und Nvidia gemacht 8% des gesamten Venture Capital volumes wird inzwischen von App und Google gemacht jeder dieser Konzerne macht mehr investments in generative ai wie die gesamte Silicon Valley VC Szene zusammen die haben auch ein großes Interesse daran weil wenn die Firma 1 Million geben womit sie mit mit dann wenn sie mit der Million dann wieder bei Microsoft sich ins Datacenter einkaufen um die sozusagen Chips zu beanspruchen zum zum Training macht Microsoft mit diesem Umsatz s das 15fache an Marktbewertung wieder gut wenn Microsoft einem also Microsoft gibt jemand eine Million hier ich investi Startup die geben das bei Microsoft wieder aus Microsoft macht Million mit 1 Million Umsatz wenn Microsoft Million Umsatz mehr Macht wer sie an der Börse gerade 15 Millionen mehr wert ähm Modelle werden lernen Schlussfolgerung zu treffen sie können das teilweise schon sie können planen äh sie werden menschlicher werden nächstes Jahr ähm wird ai suche killen letztes Jahr war ich mir relativ sicher dass das nicht tut ich glaube aber schon äh dass es wahrscheinlicher wird oder ich habe im Podcast gesagt dass Microsoft unbedingt noch mal ein Angriff auf suche nehmen muss allein Umag die LinkedIn Daten besser verwerten zu können wenn wenn Microsoft wüsste was die Leute die es auf LinkedIn ansprechen kann suchen könnten sie mir so viel sales agents wenn sie wüssen ich habe nach cm Software gesucht letzte Woche wäre das so wertvoll für Microsoft dass sie es eigentlich machen müssen ich bin mir relativ sicher dass Google wenn sie durch den Spion gucken das Sehen und ein oder es sind 200 Milliarden Businessmodell search am Ende auch selbst wenn ich nur 5% davon habe sind das 10 Milliarden und wir haben gerade gelernt Milliarden sind für Microsoft 150 Milliarden Firmenbewertung die sie h zuulegen können morgen hat openi ein Event angekündigt wo niemand weiß worum es geht aber sie haben auch die Subdomain search.jgbt freigeschaltet die ist zwar noch not found aber wenn es sie nicht geben würde würde die Fehlermeldung anders aussehen es könnte gut sein dass damit sozusagen noch mal eine search Möglichkeit angeekündigt wird morgen und das letzte oder vorletzte was ich noch sagen möchte ist es gibt eine riesengefahr die ich sehe dass das gleiche passiert was wir in der Online Werbung gesehen haben nämlich dass ein großer Teil der Wertschöpfung aller Industrien durch wenige Konzerne abgeschöpft wird und dieses Geld in Europa nicht mal mehr versteuert wird sondern direkt in die USA wandert das wird für unsere Staatsfinanzierung ein riesen Problem es ist für die unsere Wertschöpfung sowieso ein Problem das ist mit Onlinewerbung genauso passiert jeder von euch zahlt irgendwo 3 bis 5 % Google Steuern teilweise deutlich mehr das geht in die USA es wird hier kaum noch versteuert und das gleiche wird mit AI passieren wir werden alle ai einsetzen die wird bei großen techkonzernen sitzen das wird unsere Unternehmen produktiver machen aber dafür werden wir Geld zahlen und diese wertschäpfung landet in den USA wenn wir nicht eigene souveräne europäische deutsche Modelle äh bauen und deswegen ist das Thema ähm so wichtig ich versuche mal positiv zu enden das ist deswegen kann das noch nicht das Ende sein aber letztes Jahr habe ich gesagt wir haben in Deutschland unheimlich viel Entwickler und mehr braucht man eigentlich nicht um gute ai zu bauen gute Entwickler und Entwicklerin natürlich und wir haben nicht nur viele davon sondern nach dem ai Index von Stanford schließen diese sogar relativ gut ab die sind relativ gut auf ai eingestellt das drittbeste Land der Welt in im ai Skillset also wenn jemand sagt er ist Entwickler oder Entwicklerin dann ist er wenn er aus Deutschland kommt eigentlich besonders gut für AI qualifiziert und ich hoffe dass viele dieser Entwickler uns ein souveränes Modell bauen für die Zukunft und ich danke euch für die drei extraameten und die Aufmerksamkeit ihr könnt unter dem Link die Folien und ein Video später runterladen ich freue mich wenn ihr mir auf LinkedIn folgt News abonniert oder unseren Podcast zuhörst vielen Dank für die [Applaus] Aufmerksamkeit Philip Philip Klöckner der absolute Wahnsinn du danke ich habe die ganze Zeit immer versucht zu hören wann atmet Philip denn eigentlich jetzt du hast jetzt einfach mal ganz kurz 45 Minuten durchgeredet hat die Zeit den dies Jahr gereicht oder willst du wieder kommen ein bisschen mehr ne noch mehr Brau ich nicht ich mach Biss komak noch näch malner Wahnsinn

    43 Comments

    1. Zum Reddit Thema: Mag sein, dass Google da einen Deal hatte mit Reddit. Man muss aber auch dazu sagen, dass ungefähr seit Corona Google einfach so unglaublich schlecht geworden ist als Suchmaschine (zumindest vom Gefühl), dass ich mittlerweile entweder nur noch Sachen zum Shoppen über Google suche oder wenn ich irgendein Problem habe immer "reddit" anhänge, weil alle anderen Inhalte zu 90% von Bots erstellt wurden und 0 Relevanz damit haben, wonach ich suche. Man sucht mittlerweile vergblich nach "von echten Menschen" erstellen Inhalten. Das Internet ist völlger … nunja "Müll" mittlerweile. Relevant sind nur noch Foren. Da wird auch Discord mittlerweile viel attraktiver

    2. Doppelgänger ist für mich der relevanteste Podcast um mich 2 x wöchentlich im Detail über Makroökonomische Geschehnisse zu informieren. Das was Pip hier auf der Bühne zeigt ist nur ein kleiner Auszug seiner umfassenden Kenntnnisse auf vielen Feldern. Ich habe selber wenig bezug zu Aktien und bin auch kein Programmierer, aber Pip schafft es immer wieder mein Interesse für solche Themen zu wecken.
      Ein großes Lob an Ihn und auch an seinen Co- Host 🙂

    3. Die wahrscheinlich größte Herausforderung bei der Nutzung von AI in der medizinischen Forschung liegt im Testen von neuen Entdeckungen, besonders solcher, die bereits bekannt sind, aber aufgrund finanzieller und organisatorischer Beschränkungen in klinischer Studien unerforscht bleiben (Bertagnolli, 2023). Während der Arbeit an meiner Bachelorarbeit wurde mir klar, dass viele Forschungsarbeiten die Entwicklung neuer Ideen mithilfe von AI präferieren. Dies deckt sich mit Hinweisen darauf, dass viele medizinische Forschungseinrichtungen der Veröffentlichung neuer wissenschaftlicher Entdeckungen Vorrang vor der Entwicklung neuer Medikamente einräumen (Venditto & Szoka, 2013).
      Ich bin gespannt auf nächstes Jahr und ob sich dies verändert. Wer da mehr Interesse dran hat, für den lohnt sich die Podcast Folge How to Fix Medical Research mit Monica Bertagnolli.
      Super Talk!

      Bertagnolli, M. (2024). How to Fix Medical Research. [online] Freakonomics. Available at: https://freakonomics.com/podcast/how-to-fix-medical-research/.
      Venditto, V.J. and Szoka, F.C. (2013). Cancer nanomedicines: so Many Papers and so Few drugs! Advanced Drug Delivery Reviews, 65(1), pp.80–88. doi:https://doi.org/10.1016/j.addr.2012.09.038.

    4. Ich als nicht Kaffeetrinker habe geute noch probleme im Büro Kaffe für andere zu machen.

      Endlich werde ich als Kaufmann ersetzt. 👍

    5. Aleph Alpha zu präsentieren und gleichzeitig zu sagen, dass sie noch kein Modell präsentiert haben und DAZU Frank Thelen auf dem Bild zu zeigen? -> do the math yourself 😉 😉 😉

    6. Sehr guter Vortrag, aber ein paar Minuten mehr Zeit auf der Bühne würden es ermöglichen, ein oder zwei Sätze mehr zu den einzelnen Themen zu sagen, wodurch normale Bürger besser folgen könnten.

    7. Pip wirkt immer allwissend und behauptet nicht selten von sich, dass er Trends frühzeitig erkennen würde – doch wieso hat er denn nicht deutlich mehr finanziellen Erfolg als Investor? (ist nicht böse gemeint btw)

    8. Danke für die tiefgründige Recherche, kluge Gedanken und die fantastische Aufbereitung. Ich höre Dir immer gerne zu 🙂

    9. Keynotes von Pip sind immer spannend und wertvoll. Und es ist einfach super erfrischend einen klugen Tech & Aktien Guy zu haben, der auch die grundsätzlichen sozialen und ökologischen Themen versteht und angemessen ernst nimmt. Das gibt’s leider viel zu selten, obwohl ja gerade in den Bereichen Innovation und Start-Up Kultur so viel für soziale Verantwortung getan werden kann.

      Danke!

    10. Ich fand es sehr beruhigend zu sehen, dass OpenAI nicht der einzige Platzhirsch ist. Auch dass die ganzen anderen Länder anfangen ihre eigenen LLM's zu entwickeln ist schön. KI muss open source werden und deshalb sehe ich hier das größte Potenzial diese Technologie für alle Menschen zur Verfügung zu stellen. OpenAI hat wirklich den irreführendsten Namen den man sich vorstellen kann und man muss versuchen diese Firma zu meiden. Das Mixtral Model von Mistral ist eine sehr gute Alternative für Privatpersonen selber ein eigenes fortschrittliches KI-Model zu betreiben (dieses Model spricht auch Deutsch). Danke für diesen Vortrag, hier hast du einfach den Menschen erklärt wie es um KI zur Zeit steht.

    11. dass die kommentare hier diesen "vortrag" so abfeiern, sagt alles, was man über dieses OMR ding wissen muss… sowohl inhaltlich als auch technisch war das nicht mal oberstufenwürdig

    12. Der Mann hat wirklich Ahnung, aber 150 Folien in 40 Minuten sind der absolute Overkill und nehmen dem Vortrag m.E. leider dadurch Qualität. Dem kann niemand ernsthaft folgen.

    13. 16:30 Elitegymnasium und hochintelligente Menschen. Als ich noch zur Schule ging, waren das meist Kinder aus reichem Haus, die es am normalen Gymnasium nicht geschafft haben. Die Welt ändert sich rasant.

    Leave A Reply