[00:00:00.600] – Sarah
In dieser Folge unseres Digital Impact Podcasts sprechen Christina und Chris darüber, wie sich Gemini 3 und ChatGPT 5.1 im direkten Vergleich bei konkreten Use Cases schlagen. Ich bin Sarah Stock, Marketing-Strategin bei den netzstrategen und ich freue mich, euch zu dieser Folge unseres KI-News-Updates zu begrüßen. Wir haben sie am 4. Dezember 2025 aufgenommen und alles Wichtige, was in dieser Folge erwähnt wird, findet ihr wie immer in den Show Notes. Nun starten wir direkt rein in die Folge mit Christina.
[00:00:36.620] – Christina
Hi Chris. Schön, dass wir wieder reden. Ich habe nämlich Redebedarf. Ich möchte über Geminal 3 reden diesmal. Also brauchst nicht verschreckt gucken. Diesmal geht es Geminal 3. Ich weiß nicht, wie es bei dir ist, aber meine Timelines und was ich so bekomme an KI-Newslettern, LinkedIn-Posts, Podcasts, die schwärmen alle von Geminal 3 und wie gut das jetzt ist, auch im Vergleich zu ChatGPT und dass das ChatGPT total ausgestochen hat und jetzt eigentlich jeder, der das nicht benutzt, selber schuld ist. Und ich muss ja zugeben, ich bin ein bisschen ChatGPT eingefahren, vielleicht schon, und dachte: Okay, das müsste man sich vielleicht mal anschauen. Deswegen haben wir beide überlegt, dann stellen wir die beiden Tools doch mal auf die Probe, oder?
[00:01:22.560] – Chris
Ja, mir geht es ähnlich in letzter Zeit. Ich war – dazu kommt natürlich auch noch gestern bei Google, in Berlin, die natürlich auch noch mal ans Herz gelegt haben, Gemini intensiver zu nutzen, da auch Anwendungen in der Cloud gezeigt haben. Da können wir vielleicht nachher noch ein bisschen draufkommen. Aber tatsächlich ist es so, Gemini hat ganz schön Gas oder Google hat ganz schön Gas gegeben und da dann doch noch mal ein bisschen Power reingesteckt und ist teilweise wirklich beeindruckend, was da geht. Ich glaube, die meisten Leute kennen jetzt natürlich nano-Banana und bauen da lustige Bildchen und bearbeiten ihre Fotos. Das ist alleine schon beeindruckend genug. Aber ich finde auch, das Modell ist jetzt auch bei Antworten und Aufgaben deutlich besser, als es noch vor ein paar Monaten war. Und da war eigentlich immer ChatGPT führend, aber tatsächlich empfinde ich sogar als schneller und besser bei vielen Aufgaben. Aber da können wir gleich noch mal reingehen.
[00:02:28.540] – Christina
Ja, genau. Ich bin auch – jetzt vor dem Test auch wirklich gespannt, wo es besser ist und wo ChatGPT vielleicht auch noch die Vorteile hat. Was ja so gesagt wird, ist, dass es eben Zusammenhänge besser versteht, dass es im Coding-Bereich deutlich besser ist als ChatGPT und auch so in agentischen Workflows, da besser funktioniert und generell bei den Zusammenhängen, das höre ich schon immer häufiger, dass das da besser funktioniert und dass es deutlich schneller ist. Also der reasoning Faktor bei Gemini ist deutlich schneller als der Thinking Mode bei ChatGPT, der doch ordentlich Zeit braucht. Ich meine, das sind immer noch in der Regel unter einer Minute. Wie lange brauchst du, um diese Aufgabe zu erledigen? Fast eine Minute. Wir sind da auch ein bisschen vielleicht gierig geworden, wie schnell das funktionieren soll, aber grundsätzlich ist Gemini schon schneller, was aber auch wahrscheinlich bedeutet, dass das ressourcenschonender ist, was ja jetzt auch nicht so blöd ist. Aber wir können vielleicht mal gucken, was wir getestet haben. Ich fange mal an. Ich habe mal einfach einen Ordner genommen, in dem sehr unterschiedliche Formate sind, Dateiformate, und auch inhaltlich sehr breit, wenn ich mal ohne Bewertung sage. Es ist nämlich der Ordner, in dem wir unseren internen Workshop, den letzten, den wir im September hatten, wo alle Dateien liegen, die da im Zusammenhang entstanden sind. Das heißt, da geht es Präsentationen, da sind Fotos dabei, die Agenda ist dabei, die einzelnen Präsentationen von unterschiedlichen Leuten, die was präsentiert haben und alles in unterschiedlichen Ständen, wie gesagt, unterschiedliche Dateiformate. Es ist eine Agenda dabei, das heißt, wenn man sich die mal nimmt, dann kann man natürlich schon – Also ich als Mensch, wenn ich in so einen Ordner reingehe und da gibt es eine Agenda, mache ich die mal als erstes auf, zu gucken, was ist denn hier Phase. Aber genau, diese beiden Ordner habe ich mal Gemini gegeben und ChatGPT. Und da fängst du nämlich schon an. Wir arbeiten in der Google Cloud. Was bedeutet, ich konnte einfach in der Ordnerübersicht mir ein Fenster öffnen mit Gemini und da war schon vorgegeben: Soll ich dir diesen Ordner zusammenfassen? Und dann habe ich gesagt: Ja, mache mal bitte. Ich habe also nur auf den Button geklickt und dann hat er mir eine Zusammenfassung gegeben. Während ich bei ChatGPT musste ich es runterladen und einzelne Dateien hochladen. Also auch eine Zip-Datei hätte nicht funktioniert. Wir haben unser Google Drive nicht freigegeben für ChatGPT. Das heißt also runterladen, hochladen. In der Art. Das ist ja schon mal irgendwie super nervig. Das Handling war, wenn man in der Google Cloud ist, auf jeden Fall deutlich leichter mit Gemini. Und dann die Ergebnisse: Gemini hat tatsächlich eine Zusammenfassung gemacht, nicht auf Basis einzelner Dateien, also hat nicht gesagt, in der Präsentation steht das und das drin und in der Agenda steht das und das drin, sondern hat einen globalen Überblick gegeben, was da an Inhalten drin ist. Und auch gut, ich dachte, ja stimmt, darüber haben wir besprochen, also mehr so auf einer Metaebene zusammengefasst, welche Inhalte es in diesem Ordner gibt. Und ChatGPT war deutlich tiefer und hat jedes Dokument zusammengefasst. Also oben immer drüber geschrieben, das ist jetzt Präsentation XY und die Inhalte der Präsentation sind folgende. Mit demselben Prompt, ich habe dann geguckt, also fasse mir den Ordner zusammen, glaube ich, habe ich gesagt. Ja, fand ich interessant. Das eine ist, glaube ich, für den – Gemini, ist für den schnellen Überblick, was ist hier im Ordner drin? Worum geht es? Gerade bei uns, wenn man in neue Kundenprojekte reinkommt zum Beispiel und dann einfach mal sich so eine Zusammenfassung von einem Kundenordner geben lässt, ist auf jeden Fall schon sinnvoll. Und ChatGPT war aber detaillierter. Da konnte man dann auch mit Einzelnen – Wenn ich jetzt hätte wissen wollen, okay, wo finde ich denn jetzt diese Passage zur Strategieentwicklung, zum Beispiel, dann hätte ich das bei ChatGPT direkt gefunden. Ich hätte wahrscheinlich Gemini auch fragen können, in welcher Datei finde ich das, und hätte da eine Antwort bekommen. Aber das fand schon mal interessant. Ich hätte gedacht, dass Gemini da ausführlicher ist und ChatGPT vielleicht eher in der Zusammenfassung ist, aber ja, so war es. Aber beide Ergebnisse waren gut. Ich würde jetzt keinen sagen, der hat das besser oder schlecht da gemacht, weil der Prompt auch so generisch war.
[00:06:47.060] – Chris
Ich dachte auch, gerade bei dem Prompt ist natürlich auch Interpretationsspielraum bei dem Intent, den man hat. Da dachte ich auch so an SEO-und Suchanfragen, also googel nach Nudeln, googel nach Pasta. Das eine sind Rezepte, das andere sind Restaurants, wo man unterstellen könnte, dass es sich die gleiche Sache handelt. Und so ähnlich ist es ja wahrscheinlich hier auch. Also kann man vielleicht Gemini unterstellen, dass es Nutzerintent besser versteht aufgrund der Daten, die Google hat. Das ist auch reine Spekulation. Da ist natürlich die Frage, wenn man dann noch präziser wird, wie sich die beiden dann entwickeln und was die dann machen. Aber für so eine Zusammenfassung, glaube ich, spiegelt das gerade vielleicht wieder, wie die zwei Systeme von den meisten Menschen benutzt werden. Ich glaube, den Rückschluss kann man vielleicht ziehen, dass ein ChatGPT dann doch vielleicht ein bisschen noch technischer agiert wird und Gemini dann aufgrund der Integration auch bei Google dann vielleicht ein bisschen die seichteren Fragen bekommt und dann entsprechend deswegen die Ergebnisse auch so bewertet.
[00:07:58.760] – Christina
Ja, ich glaube auch, dass – dadurch das es integriert ist im Workspace, hat es, glaube ich, schon den Intent, also meine Suchintention, vorausgesetzt: Die wird sich jetzt hier erst mal einen Überblick generell verschaffen. Während ich bei ChatGPT habe ich ja einzelne Dateien auch extra hochgeladen. Das heißt also, mein Aufwand – Also jede Datei, die ich zur Verfügung gestellt habe, da denkt ChatGPT natürlich auch, die ist wichtig, weil ich sie eben manuell hochgeladen habe, während ich bei so einer Ordnerzusammenfassung im Workspace – Also zum Beispiel hat Gemini ein Dokument total ignoriert. Das war nämlich unser Begrüßungsspiel. Wir hatten für jeden von uns eine KI-Animation mit drei Zitaten, einfach mal so, um reinzukommen in unsere Workshop-Woche, und die hat Gemini zum Beispiel nicht zusammengefasst. Da hat er reingeguckt und hat gesagt: Ah ja, netzstrategen Quatsch, das braucht die jetzt nicht wissen. Und bei ChatGPT war es so: Ah ja, das hat die hochgeladen, das scheint ja wichtig zu sein. Also da gab es Folien und dann gab es Zitate und die Menschen sahen komisch aus. Das war die Zusammenfassung. Aber ja, genau. Ich glaube, das ist dann schon aufgrund der Integration und davon wird die Suchintention abgeleitet. Das stimmt schon. Aber beides war gut. Dass es mal so – Zusammenfassung war, dass jetzt so „Tomato, Tomato”, das kann man beides, glaube ich, benutzen, ohne dass es da irgendwie Qualitätsunterschied Unterschiede gibt.
[00:09:16.180] – Chris
Ja, absolut. Spannend. Hattest du das mit Gemini vorher schon mal an anderer Stelle versucht, irgendwie im Workspace direkt was ausführen zu lassen?
[00:09:28.740] – Christina
Im Workspace nicht. In den Dokumente fange ich jetzt an. Ich habe es ja eingangs schon gesagt, dass ich eigentlich eher mit ChatGPT arbeite. Wir haben jetzt Gemini, ich weiß nicht, seit einem Jahr vielleicht auch intensiver im Einsatz und ich glaube, das ist optional eine Zeit lang gewesen, ob man es macht. Wir waren aber relativ früh mit dabei, um auch in der Beratung unterschiedliche Modelle beraten zu können. Das heißt, ich habe schon immer Berührungen mit Gemini gehabt, aber wenn ich wirklich was für mich gemacht habe, habe ich in der Regel ChatGPT benutzt. Das war aber vielleicht auch, weil ich da viele Schulungen gegeben habe und vielleicht war ich einfach ein bisschen sicherer im Prompt und auch die Custom-GPTs fand ich eine lange Zeit besser bei ChatGPT. Und jetzt so die letzten zwei, drei Monate, würde ich sagen, habe ich angefangen, aber auch in den Tools selber und jetzt seit Gemini 3 wirklich ganz, ganz bewusst – da kommen wir gleich noch auf Use Cases –, das innerhalb der Dokumente zu machen, weil der auch Vorschläge gibt. Bei Präsentationen zum Beispiel sagt er eben Folie optimieren oder Text kürzen oder so, das ist dann schon sehr praktisch, das nicht immer hin-und-her kopieren zu müssen und es eben sehr nativ in der Umgebung integriert. Das ist schon ziemlich cool.
[00:10:37.920] – Chris
Würdest du sagen, Folie optimieren klappt?
[00:10:42.580] – Christina
Mal so, mal so. Ich habe ein, zwei Ergebnisse. Ich habe auch einen Use Case für heute mit dabei, wo es super geklappt hat, wo ich selber überrascht war und dachte: Krass. Ich rede mir ein, mit vielen Nachdenken wäre ich da auch drauf gekommen. Aber das fand ich schon gut und andere Sachen sind so: Nee, das hat jetzt gar nichts optimiert, das hat Sachen verschlimmbessert. Oder so. Wie ist deine Erfahrung?
[00:11:11.040] – Chris
Ich hatte tatsächlich auch das Letztere eher. Häufig, ist es natürlich so, wir haben ja auch einen Master, wir haben uns ja auch Gedanken gemacht, wie unsere Folien aussehen und so weiter und ungeachtet dessen wird dann die Optimierung durchgeführt und deswegen kam es bei mir mitunter zu skurrilen Ergebnissen. Was ich aber Was ich aber schon mache oder was ganz gut ist, ist, ich lasse mir Texte noch mal überprüfen, direkt in der Folie dann. Das habe ich früher auch dann in ChatGPT geschmissen. Ist hier ein roter Faden? Ist hier die Story noch drin? Habe ich irgendwie was vergessen? Welche Fragen könnte man da stellen? Das mache ich jetzt alles auch direkt in den Slides und auch mal Übersetzung. Also wenn ich jetzt schon was in Deutsch habe und brauche das dann vielleicht noch mal schnell in Englisch, dann gehe ich das natürlich nicht alles manuell durch, logischerweise, sondern lasse das auch direkt übersetzen. Das funktioniert auch sehr, sehr gut. Also kopiere das auch nicht mehr hin und her. Und generell bei der Nutzung ging es mir ähnlich, dass ich eher mit ChatGPT gearbeitet habe. Ich aber jetzt auch so seit Spätsommer da am switchen bin und dann deutlich mehr mit Gemini schon mache, einfach aufgrund der Integration, aber auch weil die Antworten mir tatsächlich bei vielen schon besser vorkommen und auch bei Texten ChatGPT immer gleich klingt und immer die gleichen Floskeln verwendet und so weiter. Also wenn ich da mal irgendwie was habe bearbeiten lassen, dann war das Ergebnis nicht mehr so individuell wie früher oder vor ein paar Monaten. Früher klingt der so vor zehn Jahren, aber das ist damals noch gar nicht so lange her. Und deswegen, ich bin tatsächlich auch immer so ein Switcher zwischen den Modellen. Also ich war schon mal bei Gemini und bin dann wieder zu ChatGPT und jetzt wieder zurück, so von der Verlagerung.
[00:13:03.440] – Christina
Ihr habt eine Off-Beziehung, du und Gemini?
[00:13:05.650] – Chris
Ja, tatsächlich. Eine Situationship, wie man das ja heutzutage nennt.
[00:13:12.220] – Christina
Ja, ist eine toxische.
[00:13:14.550] – Chris
Ja, ChatGPT, da gibt es klar. Nein, aber tatsächlich, so wie die Modelle nachlegen, so bin ich tatsächlich jetzt auch immer wieder am Switchen gewesen und deswegen finde ich das jetzt gerade relativ natürlich, aber schon beeindruckend, wie unterschiedlich die Ergebnisse sein können.
[00:13:32.380] – Christina
Ja, also auf jeden Fall würde ich sagen, dass der Unterschied von Gemini 3 zum Vorgängermodell größer ist als der Sprung auf GPT 5. Davon hatte ich mir, vielleicht auch so Erwartungsmanagement, relativ lange wurde ja auf GPT-5 gewartet, weil das eben dann so den Durchbruch bringen sollte, auch bei den agentischen Workflows und so. Ja, ich war dann eher so ein bisschen so: Ja, schon besser. Und so natürlich das Reasoning-Modell deutlich besser als die Modelle davor und so. Es wird deutlich weniger halluziniert. Das war schon so, aber jetzt, also Gemini 3 ist wirklich noch mal ein großer Sprung. Aber ich fand auch, dass Gemini 2 vorher eben nicht so leistungsstark war wie die GPT. Aber ich kann ja noch mal einen weiteren Use Case nennen. Und zwar habe ich mich mit dem Rentenpaket beschäftigt, das ja gerade in den Nachrichten ist, und mit Haltelinien und keine Ahnung, was will jetzt eigentlich wer und was wird da eigentlich verhandelt und was ist eigentlich ein Rentenniveau? Was sind denn diese 48%, die jetzt überall rum wabbern? Und habe beide gefragt, dass sie mir ein Lernprogramm schreiben zur Rentenreform, die gerade diskutiert wird, und dass sie mir auf Grundlage dessen – ein Lernprogramm dann für einen zwölfjährigen, also nicht einen vierjährigen, aber einen zwölfjährigen, das noch mal erklären und dann noch eine Prüfung hinterher, um meinen Lernfortschritt abzufragen, also dass sie das mal zusammenstellen sollen. Und der genaue Prompt war: „Ich möchte den aktuellen Vorschlag der Bundesregierung zur Rentenreform verstehen.” Also sehr generisch, irgendwas machen die doch gerade da zur Rente. Hau mal rein. Und dann haben die beide losgelegt und haben beide erst mal ziemlich – Der ChatGPT war ein bisschen weiter in der Methodik. Der hat zum Beispiel das Lernprogramm in Modulen – das hatte ich mir gewünscht, hat er zum Beispiel versehen mit Lernziele, Kerninhalte und Mini-Aufgaben. Also sehr pädagogisch, würde ich mal sagen, wie man das aufbauen sollte, während Gemini relativ schnell reingegangen ist. Er hat immer Modul, Einleitungssatz und Unterpunkte. Ich finde, auch da merkt man den Charakter, wenn man das so sagen kann, der beiden Programme. Gemini ist ein bisschen präziser und schneller in den Antworten. Also das Thinking-Modell von ChatGPT hat manchmal Längen, wo ich denke, jetzt müsste eigentlich noch mal eine KI drübergehen und mir das zusammenkürzen, was ChatGPT 5 mir gegeben hat. Aber in dem Fall fand ich es nicht schlecht, weil zu einem Lernprogramm fand ich die Lernziele jetzt nicht blöd. Das fand ich schon mal ganz gut. Und dann die Aufgabe, das für einen zwölfjährigen zu erklären, das hat auf jeden Fall Gemini mindestens mal kreativer gemacht. Die haben nämlich eine Gummibärchen-Analogie, hat Gemini gezogen. Er hat erst mal gesagt: Stell dir vor, alle Kinder in Deutschland haben eine bestimmte Anzahl von Gummibären und müssen jeden Monat einen Gummibär in den Topf legen, damit Omas und Opas auch einen Gummibär haben. Genau, ein bisschen so den Generationendeal da abgegriffen. Und dann haben sie gesagt, ja, sind das dann durchgegangen, die einzelnen Bereiche, also zum Beispiel das Rentenniveau, haben sie gesagt: Ja, stelle dir vor, in Zukunft ist auf jeden Fall gesichert, dass die Omas und Opas immer knapp unter der Hälfte haben, was du in der Tasche hast an Gummibären, also diese 48 % Rentenniveau. Aber auch wenn du jetzt 100 hast und du hast in zehn Jahren 200 Gummibären, bekommen die immer knapp unter der Hälfte, weil ich nämlich finde, dass in der ganzen Diskussion untergeht, dieses Rentenniveau, wenn das weniger hoch wäre, wäre das keine Kürzung der Rente, sondern die kriegen einfach weniger von steigenden Löhnen. Das fand ich, hat Gemini echt ganz gut, also mit dieser Analogie ist natürlich auch manchmal so ein bisschen weit hergeholt und so und ich weiß, ich habe nicht so viel Kontakt zu zwölfjährigen, wie die das so fänden. Aber ich fand es erst mal einen guten Ansatz, während ChatGPT tatsächlich einfach nur versucht hat, mit leichter Sprache, mit einfacher Sprache das zusammenzufassen. Aber haben eben nicht diese Analogie gemacht. Das fand ich bei Gemini schon nicht so schlecht, das so zu tun. Und die Prüfung war fast identisch. Also waren die selben Fragen mit dem passt denselben Antwort. Also es war Multiple choice und die Antworten waren fast immer gleich. Da würde ich wirklich sagen, da gibt es kaum einen Unterschied. Der erste Teil fand ich ChatGPT besser, weil die Lernziele mit dabei waren und das ein bisschen besser strukturiert war. Den mittleren Teil für die Zwölfjährigen fand ich bei Gemini besser und den dritten haben sie beide, beide ziemlich ähnlich voneinander abgeschrieben, könnte man sagen.
[00:18:22.980] – Chris
Also was – Fazit jetzt für Lehrer. Was sollen die zukünftig verwenden? ChatGpt oder Gemini?
[00:18:31.800] – Christina
Also ich glaube, wenn man es lernen will, fand ich Gemini besser. Also ich habe bei Gemini noch besser verstanden, worum es geht. Also zum Beispiel auch eben diese 48 % oder diese Halte-Niveau, dass das keine Kürzung ist, wenn es weniger wird. Das fand ich, kam da besser raus. Bei ChatGPT würde ich nehmen, wenn ich so was vorbereiten müsste. Also wenn ich eine Lerneinheit vorbereiten müsste, was wir ja öfter mal machen bei Schulungen, dann würde ich eher ChatGPT nehmen, weil das mehr diese pädagogische Herleitung hat und Aufbereitung. Aber wenn ich das Thema verstehen wollen würde, also Front-End und Back-End so ein bisschen, dann wäre ich eher bei Gemini.
[00:19:10.200] – Chris
Kam die ChatGPT-Antwort bei dir vielleicht aufgrund deiner sonstigen Tätigkeit so strukturiert? Denke ich jetzt gerade so drüber nach, wenn ich es höre.
[00:19:18.920] – Christina
Könnte sein, ja. Möglich wäre es. Ich habe es jetzt nicht in einem Custom GPT gemacht. Wo du eben sagtest, dass dir ChatGPT oft zu generisch ist in den Texten. Ich mache kaum noch was eigentlich in den offenen Bereichen, sondern ich habe mittlerweile fast für alles Custom GPTs, wo dann eben auch Tonalitäten hinterlegt sind und so, und dann finde ich das schon auch ziemlich gut, was da rauskommt. Das heißt, das habe ich jetzt im offenen Bereich einfach mit dem 5.1er-Modell gemacht und ich habe natürlich auch angegeben, dass meine Daten nicht zu Trainingszwecken verwendet werden. Mal gucken, wie gut das funktioniert. Aber ja, wäre interessant, wenn das mal jemand den selben Prompt abgibt, ob der dann auch eben mit Lernzielen und so anfängt, also mehr so aus der „Wie-würde-ich-es-machen-Perspektive”.
[00:20:07.880] – Chris
Kann ich ja nachher vielleicht mal direkt testen.
[00:20:10.800] – Christina
Ja, wobei du vielleicht ähnliche …
[00:20:12.800] – Chris
Ja, das ist gut möglich. Dann müssen wir eine dritte unbeteiligte Person finden.
[00:20:17.320] – Christina
Ja, zu Hause mal fragen.
[00:20:19.780] – Chris
Genau. Ja, spannend. Ich habe auch einen Use Case ausprobiert und die beiden gegeneinander antreten lassen. Da kann ich ja auch mal ein bisschen erzählen. Und zwar ging es da – ich bin ja sonst im Analytics-Bereich unterwegs – Daten und eine Visualisierung dazu. Und zwar habe ich mit generierten CSV-Daten eines Podcasts, eines fiktiven, beide KIs gebeten, eine Web-App zu bauen, mit der ich die Podcast-Downloads visualisieren kann, also einen CSV-Upload, Filter und Chart sollte das ergeben, quasi kleines Dashboard am Ende. Und dann war es so, dass ich tatsächlich von Gemini erst mal super beeindruckt war, weil so schnell konnte ich gar nicht gucken. Kennt man ja, wenn Code erstellt wird, das rattert ja dann gerade so runter. Das kennt man jetzt. Das ist so ein bisschen wie bei Matrix früher, aber jetzt auch noch nichts Besonderes. Und als Nächstes wurde aber in diesem Canvas, in dem der Code generiert wurde, ein Vorschaufenster geöffnet und dann hatte ich eigentlich eine funktionierende Web-App. Also da kam, war direkt einfach, es sah auch schön aus und konnte da direkt, hatte ich so einen Button, in dem ich die CSV hochladen konnte. Die wurde sofort visualisiert.
[00:21:45.300] – Christina
Also mit den Daten, deine effektiven Daten, konntest du direkt in der Art Vorschau hochladen?
[00:21:51.780] – Chris
Genau, musste ich gar nicht irgendwie – Eigentlich wäre es ja so, ich müsste den Code runterladen, als HTML abspeichern, den Browser öffnen und da dann ausprobieren, ob alles funktioniert. In der Zeit war ChatGPT noch am Überlegen, wie es denn am besten wäre und hat dann auch ordentliche Thesen aufgestellt und was man denn machen müsste und dann auch den Code generiert. Hat jetzt aber mir dann nicht gesagt, was ich mit dem Code machen soll. Jetzt hatten wir Glück und ich wusste, was zu tun ist, aber sonst ist ja immer so: Kann ich noch das für dich tun? Kann ich noch dies für dich tun? Kann ich noch einen Kaffee holen, um die Leute eben im Loop zu halten und in der Applikation. Das war jetzt da gar nicht so der Fall, sondern habe ich dann auch noch mal gefragt: Was soll ich denn jetzt machen? Dann habe ich wieder überlegt, weil ich – Komm, in der Zeit kann ich ja schon mal den Code nehmen. Habe den ausprobiert, hatte erst mal ganz andere Optik. Das war auch schon interessant. Also was mir Gemini da generiert hat, sieht auch aus, als wäre das was von Google, also so ein bisschen so Looker-Dashboard, angelehnt optisch.
[00:23:03.360] – Chris
Das sah bei …
[00:23:04.240] – Christina
Vielleicht mal als Info für alle Zuhörenden: Wir packen es in die Shownotes. Wir packen Screenshots links, je nachdem, in die Shownotes und könnt es euch da angucken. Wir schreiben bestimmt auch bei LinkedIn drüber, aber genau, die beiden Varianten gibt es auf jeden Fall.
[00:23:18.200] – Chris
Genau, das ist ganz gut, sich die vielleicht noch mit anzuschauen. Sah optisch schon mal ganz anders aus. Ich hatte ein paar mehr Filtermöglichkeiten. Es war deutlich technischer, würde ich sagen. Und ich konnte noch ein Mapping durchführen. Ich hätte jetzt noch die Werte in der Tabelle anders zuordnen können in der Visualisierung. Macht da an der Stelle aber keinen Unterschied, weil die nicht funktioniert hat. Also was?
[00:23:42.940] – Christina
Hallo?
[00:23:44.080] – Chris
Ja. Ich habe da jetzt dann auch nicht noch mal nachgefasst, weil das Experiment für mich da dann auch erledigt war.
[00:23:49.320] – Christina
Gescheitert war.
[00:23:52.020] – Chris
Hätte man natürlich jetzt dann wahrscheinlich noch mit 17 weiteren Rückfragen das irgendwie hinbekommen können, aber Gemini hatte ja funktioniert. Da habe ich dann sogar noch schnelle Anpassungen gemacht, habe ihm gesagt: Kannst du mir bitte in dem Balkendiagramm, in dem du die Top-Episoden anzeigst, nicht die Nummer anzeigen der Episode, sondern den Titel, den wir da eingegeben haben? Die fand sich eben auch in der CSV, hat er dann sofort gemacht, habe ich dann sofort rausbekommen. Und dann habe ich gesagt, ich möchte noch eine Weite, also wirklich innerhalb von Sekunden hinzugefügt und den Code geändert, mir auch kurz erklärt, was er da getan hat. Und dann habe ich noch gesagt, ich hätte gerne noch eine weitere Visualisierung, die er sich überlegen kann, in dem die Themen geclustert sind, damit ich weiß, welche Themen denn in diesem Podcast die sind, wo die Episoden am erfolgreichsten waren. Hat er auch sofort gemacht und hat mir da eben dann halt Segmente ausgegeben, mit Themen, die er sich aus dem Kontext erschlossen hat. Und soweit ich das jetzt, waren jetzt nicht viele Zahlen drin, soweit ich die überprüfen kann, waren die alle korrekt, also so wie die auch in der CSV stehen. Das hat also auch funktioniert und da denke ich jetzt auch ganz neu über mal so eine schnelle Analyse nach. Also was ich mir vorher – Also mit Looker habe ich natürlich auch Möglichkeiten, da KI zu nutzen, aber wo ich mir vorher vielleicht ein Dashboard gebaut hätte – Wir reden jetzt nicht von so Dashboards, die dauerhaft im Einsatz sind, wo ich täglich drauf gucke, sondern ich möchte was rausfinden, dann ist es manchmal schneller, sich zum Beispiel Google-Analytics-Daten komplett als CSV runterzuladen oder in Looker zu verknüpfen und die da zu visualisieren, um schnell da zum Ergebnis zu kommen. Jetzt bin ich wirklich am überlegen, ob ich das zukünftig noch so mache bei so einmaligen Analysen und Reportings oder ob ich mir halt einfach quasi jetzt immer so eine kleine Web-App mir schreiben lasse in Gemini. Eigentlich muss ich die gar nicht jedes Mal schreiben, sondern kann mir die vielleicht auch irgendwie einfach immer umbauen und habe die dann als HTML auf meinem Rechner liegen oder irgendwie bei uns auf dem Server laufen, mit dem ich dann halt eben schneller bin. Und das ist eine Visualisierung, die könnte man – Die sieht aufgeräumt aus. Die Zuhörer:innen können das ja dann auch noch mal in den Shownotes anschauen. Die kann man so eine Präsentation mitnehmen. Also die kann man so auch seinen Kolleg:innen und so weiter zeigen, die da sonst nichts mit der Materie zu tun haben. Die würden alle verstehen. Und da war jetzt auch, wie in deinen Beispielen, ja nicht: Mach hier ein Kuchendiagramm und zeig mir da noch dies und setz das bitte so in Kontext, sondern da habe ich jetzt hier direkt einen Filter. Da kann ich nach einem Episodentitel suchen, da kann ich einen Zeitraum auswählen und dann habe ich drunter Downloads gesamt, durchschnittliche Downloads am Tag, was der Peek-Tag ist, wie viele Episoden da drin sind und so weiter und den Downloadverlauf. Also komplett verständlich, ohne dass ich da großartig was mitgegeben habe. Da muss ich sagen, bei ChatGPT, wie gesagt, hat der nicht mehr funktioniert und da wäre aber auch nur eine Visualisierung gewesen. Der hatte mir dann nur ein Balkendiagramm gebaut mit diesem allgemeinen Prompt. Damit ich da was rausbekomme, da muss ich offensichtlich beim Prompt schon viel mehr ins Detail gehen müssen. Würde man in der Realität ja auch machen, aber bei diesem generischen Prompt kam tatsächlich da gar nichts Sinnvolles raus. Da war ich fast schon enttäuscht. Nicht fast, da war ich enttäuscht. Muss man sagen.
[00:27:21.620] – Christina
Ja. Ich hätte auch ein interessantes Beispiel, weil ich bis jetzt vor allem ChatGPT genutzt habe, um mir eben Visualisierung direkt generieren zu lassen. Das heißt, ich habe einen CSV und eine Excel, was auch immer, anonymisiert natürlich, und sage dann eben: Erstelle mir ein Balkendiagram, erstelle mir was auch immer für ein Diagramm, und dann macht er das ja auch brav. Ich finde, dass die Diagramme nicht besonders schön sind. Wer sich die ChatGPT-Diagramme vor Augen hat, ich weiß nicht genau, wie man es beschreiben soll. Es ist sehr technisch irgendwie und nicht schön fürs Auge und auch für die Erkennung der Daten ist das nicht die beste Darstellung, finde ich. Vielleicht bin ich auch noch andere gewöhnt, aber ich finde das irgendwie nicht – Wenn ich das in meine Präsentationen einbaue, man merkt immer so, der Rest sieht hier irgendwie anders aus. Und das über eine Web-App zu lösen, die dann erst mal interaktiv ist, also dass ich mit den Sachen auch spielen kann und ich kann filtern und so weiter. Und dann noch in der guten Darstellung, und dann mit so einem generischen Prompt auch noch, ist auf jeden Fall noch mal so next level, finde ich. Wahrscheinlich ist ChatGPT einfach nicht – Also ich könnte mir schon vorstellen, dass der ganz brauchbare Sachen rausgefunden hätte, wenn man ihm einfach gesagt hätte: analysiere diese CSV. Also ich glaube, dann hätte er einem so Sachen untereinander gepostet, die irgendwie eine Relevanz für ihn haben, aber die kann man halt nicht filtern und die kann man eigentlich auch nicht rausgeben, weil die halt einfach nicht so gut aufbereitet sind.
[00:28:55.700] – Chris
Ja, ich glaube auch, die Aufgabe hätte er besser erfüllt, wenn man den Prompt spezifischer und genauer gemacht hätte mit besseren Anforderungen, was denn da am Ende bei herauskommen soll. Also wenn ich dem jetzt genannt hätte, welche Visualisierung ich möchte und wie das Ganze funktionieren soll, habe ich ihm ja auch nicht gesagt. Ich habe ihm ja nicht gesagt, ich möchte da die Datei hochladen. Ich möchte kein Mapping selbst machen. Es muss irgendwie so funktionieren. Es soll immer die gleiche Visualisierung sein und die Zahlen möchte ich angezeigt bekommen. Bin ich mir sicher, dass das besser geklappt hätte, ob das beim ersten Entwurf geklappt hätte, weiß ich nicht. Ich würde es aber vermuten, dass das dabei rausgekommen wäre. Beeindruckend fand ich da und da hatten wir es ja auch schon von das Kontextverständnis von Gemini, was offensichtlich direkt verstanden hat, wie diese Web-App aussehen soll und was man wahrscheinlich damit machen möchte. Habe ich ihm auch nicht mitgegeben an der Stelle.
[00:29:50.840] – Christina
Dieses Web-App-Thema bei der Besprechung von Gemini 3 ist mir jetzt öfter begegnet, dass es da wirklich unglaublich gut ist. Ich glaube auch, dass das da wahrscheinlich für das gerade das beste LLM draußen ist, was so Web-Apps erstellt. Und ich finde auch wirklich den Grad der UXD-Qualität, also User Experience und Design, schon echt krass. Es gibt sehr viele Webseiten da draußen, die deutlich schlechter sind.
[00:30:17.800] – Chris
Ja, das stimmt wohl. Bin ich gespannt, wie sich das jetzt auswirken wird, auf was es so an Web-Apps da draußen gibt, wenn dann jeder mal seinen Lebenslauf bunt visualisiert hat und auf LinkedIn gepostet hat, fangen sie wahrscheinlich an, Web-Apps zu bauen und zu posten oder Schlimmeres. Aber es gibt ja einen enormen Drive bei den Sachen, die man so machen kann. Und sich so kleine Helfer vielleicht als Web-App zu bauen für Sachen, die man regelmäßig macht, ist wahrscheinlich noch cooler als ein Jam oder ein CustomGPT zu haben. Gerade wenn es Sachen sind, die man visualisiert, dann habe ich das Ding einfach da fix, kann das all meinen Kolleginnen zur Verfügung stellen im Unternehmen über Server oder Browser, wie auch immer. Schon schwer beeindruckt.
[00:31:13.340] – Christina
Ja, ich finde auch, das ist wirklich Next Level, diese Web-App-Generierung und auch, wie schnell das funktioniert. Ja, ich finde das wirklich gut. Ich finde aber auch, dass bei diesem Beispiel wieder rauskommt, was die anderen jetzt auch schon ein bisschen gezeigt haben. Ich habe das Gefühl, Gemini ist für Leute, die weniger technisch sind und die weniger spezifizieren. Also dieses Prompt Engineering-Ding scheint Gemini sich weniger stark sich weniger stark davon abhängig zu machen. Er zieht dann offensichtlich, er sie es, ich tue mir immer bei Pronomen schwer bei den KIs. Gemini hat offensichtlich eine Suchintention, die es vorher von dem es ausgeht: Ich denke, das ist es. Und dann liefert es aber in dem Bereich auch gute Ergebnisse. Vielleicht ist das ein großer Vorteil von Google in diesem ganzen KI-Wettrennen, dass sie über die letzten 20 Jahre gelernt haben, Suchintentionen richtig zu analysieren und auszuwerten. Also ich habe schon das Gefühl, dass das Prompting bei Gemini in dem Auslesen, was ich wirklich will, deutlich besser funktioniert als bei ChatGPT. Also bei ChatGPT gilt wirklich Shit-In, Shit-Out. Also je schlechter mein Prompt, desto schlechter ist das Ergebnis. Das wird bei Gemini vermutlich auch so sein, aber das abstrahiert ziemlich gut, was ich denn damit meinen könnte. Vielleicht ist das wirklich auf Googles Historie zurückzuführen, dass die da einfach sehr viel Erfahrung aus der Websuche in den letzten 20 Jahren noch länger sammeln konnten.
[00:32:54.840] – Chris
Ich habe auch den Eindruck, dass Gemini da deutlich besser ist und dass man da weniger technisch unterwegs sein muss. Ich glaube, das liegt auch in der Art der Benutzung der meisten User. Also Gemini ist einfach halbautomatisch an so viel mehr Menschen, auch durch die AI-Overviews und und Android-Telefon und so weiter, ausgerollt als ein ChatGPT. Und dann kommt natürlich die Erfahrung dazu und auch die Spekulation, dass Google ja schon sehr früh, sehr weit war mit der KI, aber eben diesen Release nicht gemacht hat bis zu dem Ketschup-Flaschen-Moment von ChatGPT und dann schnell nachziehen wollte. Und jetzt aber, glaube ich, auch gut die Kurve bekommen hatte. Ich hatte auch immer die Vermutung, dass die einfach aufgrund der Ressourcen und der Erfahrung da nachziehen können und finde es eigentlich auch ganz cool, dass das jetzt so gekommen ist und man da auch einen richtigen Wettbewerb hat zwischen den KIs. Es gibt ja auch noch Perplexity und Claude und so und auch Microsoft mit seinem auf OpenAI-basierenden Copilot. Da sind ja dann doch noch mehr unterwegs, aber im Moment sind es ja die zwei, die so das Rennen machen und positiv betrachtet, spornt das ja – Also man hat jetzt gehört, Sam Altman hat die rote Lampe angezündet, dass jetzt auch mal bitte alle arbeiten sollten und sich mal ran machen sollten.
[00:34:28.420] – Christina
Ich habe auch das Gefühl, dass OpenAI in den letzten drei Jahren wirklich gar nichts gearbeitet hat.
[00:34:34.120] – Chris
Ja, die haben schon eine bessere KI, die eigentlich den ganzen Job macht. Man sieht ja offensichtlich, dass da vielleicht eine Drucksituation entsteht, aber ich glaube, Google hat einfach sehr gute Grundlagen aufgrund der Nutzerbasis und der Systeme, die sie schon haben, da Gemini auch ausrollen zu können und an viele Nutzer bringen zu können. Deswegen sehe ich das wie du, dass da wahrscheinlich ein besseres Verständnis des Intens herrscht, was jemand damit er noch tun möchte.
[00:35:02.880] – Christina
Zu dem, was du gerade sagst mit dem Wettbewerb, das ist natürlich grundsätzlich ein riesen Problem, dass es so wenige Anbieter nur gibt. Also natürlich, es gibt eine Handvoll, die man aufzählen kann, aber bei so einer wichtigen Technologie, selbst wenn jetzt fünf – Es werden nicht wahrscheinlich fünf sich rauskristallisieren, sondern vielleicht wirklich ChatGPT, Gemini, vielleicht noch ein weiteres oder vielleicht im Open-Source-Bereich noch mal was. Aber das ist natürlich viel zu wenig für die Masse an Menschen, die das benutzen wird. Da liegt so viel Macht in den Händen von ganz wenigen, dass es immer schlecht ist. Eigentlich bräuchte man wahrscheinlich bei der Verteilung von Leuten hunderte von LLMs, die irgendwie gegeneinander konkurrieren, damit nicht einer irgendwie durchdreht. Die Sam Altmans dieser Welt, wenn die mal irgendwann falsch abwiegen, dann ist es halt wirklich blöd. Aber ja, das ist noch mal ein anderes Thema. Insofern hast du total recht, es ist gut, dass ChatGPT da jetzt so alleine an der Spitze steht, sondern dass es mindestens noch ein weiteres gibt. Aber cool wäre es, wenn es davon noch mal mehr gäbe. Und ein europäisches wäre ja auch nicht so schlecht, aber ja, anderes Thema.
[00:36:09.740] – Chris
Das und mehr in der nächsten Folge.
[00:36:11.720] – Christina
Ja, genau. Dann sehen Sie, wie Chris und ich am Wochenende Ein europäisches LLM…
[00:36:17.600] – Chris
Ja gut, wenn Gemini so weitermacht, dann können wir den ja auch bauen lassen.
[00:36:24.020] – Christina
Stimmt, ja, gute Idee. So macht man das nämlich. Ich habe noch einen letzten Use Case ausprobiert, der ist auch integriert in unseren Workspace, nämlich auf Grundlage der Folien, das, was wir eben schon hatten mit dem Optimieren der Folie. Ich habe eine Präsentation gebaut und habe erst mal mit dem Zielbild angefangen, so wie es sich gehört. Ich lese das mal vor. Ich hoffe, es ist nicht zu lang. Wir packen es auch in die Shownotes. Ich würde auch alle Prompts, die wir, also nicht nur die Ergebnisse reinpacken, sondern auch die Prompts, dann kann man vielleicht besser auch noch mal nachvollziehen, was wir da gemacht haben. Also bei mir ging es darum, es geht um einen Tageszeitungsverlag. Der Verlag XY etabliert ein einheitliches, bereichsübergreifendes Personaset, das von Redaktion und Verlag in Klammern Lesermarkt, Produktentwicklung, Vermarktung gemeinsam genutzt wird. Auf dieser Basis werden bestehende und neue Produkte konsequent an den Bedürfnissen der definierten Zielgruppe ausgerichtet. Also Thema Persona und Produktentwicklung anhand der Bedürfnisse der Personas. Und das stand eben so auf der Folie und es war ein bisschen leer und ich dachte: „Machen wir hier noch eine Visualisierung oder nicht? Oder machen wir große Typo? Wir haben so ein bisschen Varianz in unserem Master und dann habe ich einfach mal auf Folie optimieren geklickt.
[00:37:41.400] – Chris
Und relativ schnell danach habe ich ein PNG bekommen. Oder ich glaube, es war sogar ein GIF. Es gibt so Datenströme, die man sieht. Was das Ding gemacht hat, ist, es hat nach oben die vier Bereiche: Redaktion, Lesermarkt, Produktentwicklung, Werbemarkt als einzelne Stränge gemacht und Lesermarkt, Produktentwicklung, Werbemarkt so gekennzeichnet, dass sie zusammengehören, also die bilden den Verlag. Das andere ist eben die Redaktion. Die zahlen alle ein auf ein einheitliches Personaset. Das ist ein Kopf mit so Dots, also so ein bisschen wie früher das Internet dargestellt wurde, aber ganz okay. Es ist jetzt nicht so total cheesy, sondern das ist schon okay. Es sollen die Personas sein. Also alle Bereiche zahlen auf die Personas ein und nutzen dieselben Personas,verrückt die Idee, um dann und das ist sozusagen das, was aus der Persona dann rauskommt, um bestehende und neue Produkte zu verbessern, also zwei Stränge, die von dort wieder abgehen. Also die Bereiche geben rein, es fließt einmal durch die Personas durch, die Bedürfnisse werden von dort abgegriffen und fließen dann in die Produktentwicklung ein. Gar nicht blöd. Und auch in der Visualisierung, nicht cheesy, sondern so. Das ist tatsächlich auch eine Folie geworden.
[00:38:54.020] – Christina
Wenn die Leute von dem Verlag gerade zuhören, das kam daher. Und ich habe dann Ich habe dann das Zielbild genommen, genauso wie ich es gerade vorgelesen habe, und habe es dann bei ChatGPT reingegeben und habe gesagt: Generiere mir eine Visualisierung für eine Präsentation, und das war wirklich totaler Müll. Es war falsch geschrieben, was mich erst mal wundert.
[00:39:16.220] – Chris
Eigentlich müsste es ausgemerzt sein.
[00:39:18.620] – Christina
Genau. Ich hätte auch gedacht, dass das die Mindestanforderung ist, so Hygienefaktoren, dass die Schrift jetzt eindeutig dargestellt wird. Das ist mit Nano Banana wirklich super geworden. Man hat eigentlich kaum noch Sachen in der Typo. Nur noch, wenn es ganz klein wird, wenn ich irgendwie ein Bild hochlade, was irgendwo anders reingesetzt werden soll, dann kann er dann noch mal so einen Hiccup haben, aber beim Generieren zum Beispiel gar nicht. Und auch sonst, das ChatGPT-Bild war wirklich so – Also das hätte ich auf gar keinen Fall in einer meiner Präsentationen übernommen. Und da war ich schon auch noch mal so: Ah ja, krass. Also so ein Schaubild, vor allen Dingen auch so animiert, da hätte ich auf jeden Fall mindestens eine halbe Stunde gesessen oder so. Das muss erst mal auf die Idee kommen, wie – Also wenn man es dann sieht, dann ist man ja klar, das ist ja einleuchtend, aber ist jetzt auch nicht total naheliegend. Und ja, da war ich schon auch beeindruckt und ich dachte: Ah cool, das macht auf jeden Fall mein Leben ein bisschen leichter beim Aufsetzen von Folien, was ja schon auch ein wichtiger Bestandteil bei uns ist.
[00:40:16.880] – Chris
Man kann es sich ja dann noch in den Shownotes anschauen und sagen: Das sah nicht so KI-mäßig aus, wie sonst die Sachen, die man da so kennt von LinkedIn oder die man so in Präsentationen sieht, wo einem so ein bisschen die Augen bluten, sondern sah ja auch richtig wie eine richtige Visualisierung aus, die jemand vielleicht irgendwie in Canva oder in Adobe…
[00:40:38.440] – Christina
Für die man sich nicht schämen muss, ja, genau.
[00:40:40.060] – Chris
Genau.Die Formulierung habe ich gesucht.
[00:40:45.080] – Christina
Das war ursprünglich eine weiße Folie. Wir haben in unserem Folienmaster aber auch schwarze Folien oder auch geteilte Folien, die wir haben. Und er hat es auf den schwarzen Hintergrund gesetzt, weil dann einfach die Visualisierung noch mal besser rauskam. Auch das war ein guter Move. Das hat der Visualisierung geholfen. Ich weiß nicht, ob er wirklich mit dem Master eins zu eins arbeitet, aber auf jeden Fall nimmt er Gestaltungselemente aus dem Master, die man dann wirklich ganz gut adaptieren kann.
[00:41:10.710] – Chris
Das ist ja schon mal gut, wenn zumindest die richtigen Farben oder passende Farben verwendet werden, weil das ist ja dann auch – Ich glaube, das ist auch das Problem, wenn man das mit ChatGPT macht, nicht nur, dass dann die Qualität dann vielleicht nicht so toll ist, das Bild ist, sondern der hat ja gar keine Connection zu dieser ganzen Präsentation. Da müsste man im Prompt dann natürlich auch noch viel, viel mehr mitgeben, damit es den Look bekommt. Und selbst dann ist es schwierig. Da hat Google natürlich auch einen entsprechenden Vorteil. Ich könnte mir vorstellen, dass es mit Copilot und Powerpoint sich ähnlich verhält.
[00:41:41.600] – Christina
Gut, ist Bildgenerierung vor zwei Jahren, aber sonst ist Copilot ja auch integriert.
[00:41:45.660] – Chris
Ja, gut, stimmt schon natürlich.
[00:41:46.920] – Christina
Ja, soll kein Copilot-Bashing sein. Ich glaube, wir hatten es beim letzten Mal schon, aber ich würde wirklich sagen, dass die mindestens ein Jahr zurück sind. Jetzt gerade durch das Fünfermodell bei ChatGPT oder jetzt Gemini 3, dass das wirklich da – Wir reden jetzt, finde ich, schon viel auch über Nuancen, außer bei der Web-App. Da hat Gemini wirklich so hervorgestochen, wie gut es war. Beim Rest würde ich schon sagen, also schon wirklich auch gut, auch besser als vor Gemini 3, aber ChatGPT hat auch seine Qualitäten. Aber Copilot finde ich wirklich, das ist schon ganz schön zurück. Ich habe das Gefühl, das dreht sich einfach für die zu schnell, die Diversionierung und Modelle.
[00:42:31.480] – Chris
Ja, ich weiß noch nicht, an was das liegt, weil Microsoft natürlich als Beteiligter bei OpenAI ja eigentlich – den besseren Zugang kann man ja gar nicht haben. Aber vielleicht ist ja das Teil des Deals, dass ChatGPT immer ein bisschen besser sein muss und wir wissen es nicht. Keine Ahnung, schwer zu sagen. Vielleicht will Microsoft auch wirklich sichergehen, dass da nichts komisches bei rauskommt, weil sie natürlich durch die Integration in Unternehmen auch eine Reputation haben, die sie verlieren könnten. Und wenn das irgendwo als nicht sicher eingestuft würde, dann hätten die natürlich ein riesiges Problem und wahrscheinlich auch so einen Ripple-Effekt in den Unternehmen. Deswegen ist man da vielleicht auch einfach vorsichtiger. Aber vielleicht holen die das Jahr ja auch noch auf.
[00:43:18.640] – Christina
Ja, genau. Manchmal kannst du dann auch wirklich schnell gehen mit einem neuen Release und dann denkt man: Wow, wo kommt das denn her? Wenn das funktionieren würde, wäre es natürlich für viele Unternehmen das Allercoolste. Ich meine, genauso wie es jetzt bei uns, Gemini, innerhalb unseres Google Workspaces ist. Und ich merke eben schon, dass mehr und mehr Use Cases jetzt dann dahin wandern von mir, obwohl ich ja vorher eher bei ChatGPT unterwegs war. Die Integration macht schon einen riesigen Unterschied, dass man nicht immer Sachen hin und her kopieren muss und so weiter.
[00:43:45.180] – Chris
Ja, ich bin da jetzt auch Web-App-Entwickler.
[00:43:49.480] – Christina
Ist bei dir immer noch naheliegender als bei mir vielleicht. Also selbst ich könnte das ja offensichtlich. Wir beide halten ja Vorträge zum Thema Generalisten, kreative Generalisten, dass die in Zukunft mehr gebraucht werden. Das ist wieder ein weiterer Beleg dafür. Wenn Leute wie du und ich Web-Apps schreiben lassen können, dann ist – In dem Fall sind es ja sogar mehrere Rollen, die wir da nicht zu befragt haben. Du hast das UX-Team nicht gefragt, wie das gestaltet werden soll und hast keinen Entwickler gebraucht. Ich glaube schon, dass bei Sachen, die komplexer sind, dass die Nutzerführung dann eben die wirklich noch mal eine Komplexität bekommt, wo es sinnvoll ist, wenn Menschen mit Erfahrung das handeln. Aber bei vermeintlich leichteren Sachen eben ein Aufbau von einem Dashboard mit überschaubaren vielen Datensätzen, dass das so gut funktioniert, ist schon – Das, würde ich sagen, ist wirklich ein Indiz dafür, dass es eben eher Leute braucht, die grundsätzlich wissen, man könnte das mit einem Dashboard lösen, aber die nicht wirklich wissen müssen, wie man es aufbaut oder wie man es gestaltet, dass das dann eher die KI macht.
[00:45:00.000] – Chris
Ja, ich sehe tatsächlich jetzt dieses Web-App-Thema als Erleichterung für kleinere Themen, die immer wiederkommen, wo ich vorher vielleicht eine Custom-GPT gemacht habe, weil es ja häufig kein KI-Anwendungsfall ist, sondern ein Automatisierungsanwendungsfall. Und dafür kann ich mir jetzt ja dann ganz coole Web-Apps ausdenken und die dann laufen lassen. Da werde ich jetzt die nächsten Tage, Nächte versenken, schätze ich.
[00:45:28.740] – Christina
Ist ja super. Dann sprechen wir in zwei Wochen wieder drüber.
[00:45:31.840] – Sarah
Der Digital Impact Podcast ist ein Projekt der Digitalberatung netzstrategen GmbH aus Karlsruhe. Er wird vorbereitet und produziert von Sarah Stock. Die Inhalte verantworten die jeweiligen Moderator:innen der Aufnahme. Abonniert gerne unseren Podcast, damit ihr immer mitbekommt, wenn wir neue Folgen veröffentlichen. Und wer noch mehr von uns netzstrategen hören mag, kann unseren Newsletter per E-Mail oder auf LinkedIn abonnieren. Ihr findet uns über Google oder die Links in den Shownotes. Dort gibt es auch alle vorherigen Folgen im Archiv auf unserer Webseite zu hören.