Welche KI-Tools machen unsere Arbeit jetzt leichter?
Shownotes
Jens Polomski hat seine Karriere in der Marketing-Branche gestartet. Seit mehreren Jahren hat er sich auf das Thema Künstliche Intelligenz spezialisiert. Er selbst baut sich etwa gern eigenen Tools – obwohl er nicht programmieren kann. Allerdings hat er dafür einige KI-Plattformen, die ihm dabei helfen. Konkrete Empfehlungen für KI-Tools gibt er in dieser Folge, im Gespräch mit t3n-Interview-Host Stella-Sophie Wojtczak.
Link zu den Abo-Angeboten von t3n: https://go.t3n.de/t3n-abo
Link zur t3n-Interview-Folge mit Anne-Kathrin Gerstlauer: https://t3n-podcast.podigee.io/691-ki-sprache-veraenderungen-anne-kathrin-gerstlauer
Schick Feedback für diese Folge an podcast@t3n.de.
Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findest du hier.
Transkript anzeigen
00:00:08: Schön, dass ihr wieder eingeschaltet habt. Wir sprechen heute über die sinnvolle Nutzung von KI-Tools.
00:00:13: Welche machen denn vielleicht den Arbeitsalltag aktuell leichter und welche
00:00:17: Rolle spielen eigentlich KI-Agenten?
00:00:19: Diese und weitere Fragen werden in dieser Episode beantwortet.
00:00:23: Und übrigens, wenn ihr unabhängigen Journalismus zu reporten wollt,
00:00:27: wie wir ihn hier bei t3n machen, schaut doch mal bei unseren Abo-Angeboten vorbei.
00:00:31: Den Link, den gibt es in den Shownotes.
00:00:33: So, jetzt aber genug der kurzen Eigenwerbung. Wer ist denn hier heute eigentlich
00:00:36: zu Gast? Das ist Jens Polomski.
00:00:39: Er ist bekannt für seinen KI-Update-Newsletter und hat 2024 die Plattform Snipki
00:00:45: zur KI-Bildung gegründet. Und ich meine, da gibt es auch einen sogenannten KI-Führerschein.
00:00:51: Aber dazu kommen wir vielleicht später noch. Erstmal Moin Jens.
00:00:55: Moin Stella, danke für die Einladung. Schön am Start zu sein.
00:00:59: Ja, cool, dass das geklappt hat. Stimmt, ich muss mich auch noch vorstellen.
00:01:02: Stella-Sophie-Wojtczak, Host von t3n Interview.
00:01:06: So, jetzt aber genug der Einleitung. Ich würde sagen, wir legen direkt los.
00:01:10: Ich habe viele Fragen vorbereitet.
00:01:12: Und ich würde gerne einmal so beginnen, Jens. Sag mal, was fasziniert dich eigentlich?
00:01:17: Am Thema künstliche Intelligenz?
00:01:20: Sehr vieles. Ich versuche es mal kurz zu fassen. Ich komme ja ursprünglich aus
00:01:24: dem Marketing und da hast natürlich auch immer Themen, Trends,
00:01:26: Content Marketing, SEO, die in sich so geschlossen sind.
00:01:29: Und was mich über die letzten Jahre enorm am Bereich generative KI vor allen
00:01:34: Dingen auch beschäftigt und begeistert hat, ist a, diese weitreichende Wirkung.
00:01:40: Das heißt, das ist ein unglaublich tiefes und breites Thema,
00:01:42: was aber auch gesellschaftlich viel verändern wird. Das heißt,
00:01:44: man kommt einfach auf ganz andere Gedanken, als nur in seiner Marketing-Bubble zu bleiben.
00:01:47: Und gleichzeitig diese, gerade im visuellen Bereich oder im Bild- und Videobereich,
00:01:52: wie viel, dass plötzlich immer mehr Ideen umsetzbar sind, dass Kreativität auch
00:01:56: gefördert wird durch solche Sachen.
00:01:57: Und das begeistert mich Tag ein Tag aus. Und da bin ich in den letzten Jahren
00:02:01: auch immer sehr hinterher zu gucken, was ist denn möglich.
00:02:04: Und es ist verrückt, was in den letzten drei Jahren so passiert ist in dem Bereich.
00:02:08: Hätte ich mir so nicht vorstellen können.
00:02:10: In den letzten drei Jahren sagst du, aber du hast ja 2019 schon deinen Blog gestartet.
00:02:15: Und damals ja auch eigentlich das Fokusthema gehabt, Marketing,
00:02:18: bis dann aber mehr und mehr eben in den Bereich künstliche Intelligenz, KI übergewandelt.
00:02:23: Wie kam denn da dieser thematische Wandel für dich? Durch meine Passion für das Thema tatsächlich.
00:02:28: Also ich habe damals den Blog, ich habe vor knapp 15 Jahren mit SEO damals angefangen
00:02:34: und da habe ich mir halt so eine Spielwiese aufgebaut.
00:02:36: Die Domain jens.marketing war frei, war so, okay, geil, nehme ich.
00:02:39: Und habe da so meinen Tool-Blog aufgebaut, über verschiedene Marketing-Tools
00:02:43: gesprochen und da ging es halt auch schon über Automation, Prozesse,
00:02:46: MarTech im weitesten Sinne und.
00:02:49: Ich habe dann irgendwann auch angefangen, ein Tool-fokussiert,
00:02:53: ein Marketing-Newsletter zu machen, bei LinkedIn über Tools und Marketing gepostet in die Richtung.
00:02:56: Das heißt, das war immer ein Thema Technologie. Ich habe mich fasziniert.
00:02:59: Und dann kam irgendwann der GPT und ich habe mich vorher schon mit GPT-3 so
00:03:04: ein bisschen beschäftigt und mal so angeschaut und war irgendwie ganz interessant.
00:03:09: Und dann kam dieser Chatbot und nach diesem Chatbot kam dann irgendwie noch sehr viel mehr.
00:03:15: Dann kam irgendwie plötzlich Bild, dann kam Video, dann kam Audio und das hat
00:03:19: mich als Marketer unglaublich fasziniert.
00:03:22: Das heißt, ich habe da halt drüber geschrieben und gepostet und ich weiß noch,
00:03:26: ich habe irgendwie den siebten, achten Post zum Thema KI hintereinander gemacht
00:03:30: und ich dachte selber so, ey, da kannst du nicht schon wieder was über KI machen.
00:03:33: Das ist doch voll übertrieben.
00:03:35: Aber das, was da halt passiert ist in den letzten drei Jahren,
00:03:38: ist für mich total krass und auch faszinierend, was jetzt für Möglichkeiten entstehen.
00:03:43: Und das hat mir dann so irgendwie den Weg Richtung KI geebnet.
00:03:47: Und da ist in den letzten drei Jahren so einiges passiert. Wie du es gerade
00:03:49: schreibst, ich glaube, KI ist mindestens in den vergangenen zwei Jahren bei
00:03:53: jeder Konferenz, die ich besucht habe, das dominierende Thema gewesen.
00:03:57: Das heißt, kein Wunder, dass da Nachfrage da ist. Aber wie hast du dir eigentlich
00:04:00: dein Wissen über künstliche Intelligenz aufgebaut?
00:04:04: Wenn ich das in einem Wort zusammenfassen müsste, extreme Neugier.
00:04:08: Okay, waren zwei Wörter, aber Neugier ist, glaube ich, mein Skill,
00:04:12: den ich total wichtig finde und der mich dahin gebracht hat, wo ich bin.
00:04:15: Das heißt, ich habe einfach mich total fasziniert für die Sachen,
00:04:18: die da sind. Viele Sachen ausprobiert, selber Erfahrungen gesammelt.
00:04:22: Und dann so ganz logisch über verschiedene oder in verschiedene Bubbles reingekommen.
00:04:26: Bei X habe ich relativ viele Sachen mittlerweile im Feed, bei LinkedIn.
00:04:29: Es gibt englischsprachige Newsletter, das heißt, man sortiert da viel aus.
00:04:33: Gerade da ich auch selber Newsletter habe, muss ich auch ein bisschen gucken, was da so passiert.
00:04:36: Aber dadurch, dass diese Technologie ja auch immer einfacher zugänglich ist.
00:04:41: Ich meine, ChatGBT ist eine Chatbox.
00:04:43: Wenn du Bilder, Videos und sonst was erstellt hast, du eine Chatbox.
00:04:46: Das heißt, du hast ein super einfaches Thema, das ist nicht,
00:04:49: aber ein sehr zugängliches Thema, wo es total einfach ist, Erfahrungen zu sammeln.
00:04:53: Und das hat mich irgendwie diese Neugier so gefesselt und habe da irgendwie
00:04:58: sehr viel Spaß daran gefunden, Sachen einfach auszuprobieren und Leuten dann
00:05:02: davon zu erzählen und das Wissen weiterzutragen.
00:05:05: Und das war im Nachhinein betrachtet ganz interessant.
00:05:08: Immer ein Part meiner beruflichen Laufbahn, dass ich Wissen vermittelt habe.
00:05:12: Das war aber nie ein von mir bewusst gesetzter Fokus.
00:05:15: Und das hat sich irgendwie jetzt gut zusammengefügt. Gute Überleitung zum Thema
00:05:20: Wissen vermitteln, weil wir wollen ja heute mal so ein bisschen dein Wissen
00:05:23: über KI-Tools und auch KI-Agenten im weiteren Verlauf anzapfen.
00:05:27: Aber wenn wir mal gucken, wie du deine Arbeit organisierst, hast du da vielleicht
00:05:31: gerade schon ein paar KI-Tool-Tipps, wo du sagst, die sind super nützlich,
00:05:36: ohne die kann ich beispielsweise meinen Arbeitsalltag nicht mehr gestalten?
00:05:40: Ganz langweilig, ChatGPT. Also ich glaube ein,
00:05:45: ob es jetzt ein Gemini ist von Google, die mittlerweile ein sehr gutes Modell
00:05:48: haben, Cloud oder ein ChatGPT, für mich ist einer der KI-Assistenten und ich
00:05:54: teste halt immer mal hin und her,
00:05:55: aber ein Tool, wo ich quasi immer einen kreativen Spirings-Partner habe und
00:05:59: dann je nach Tool hast du auch die Möglichkeit, da quasi nochmal eigene kleinen
00:06:02: Assistenten, beiChatGPT hast du dann GPTs oder Custom GPTs dafür zu bauen und das ist für mich so,
00:06:10: eigentlich das Go-to-Tool, was jeden Tag mehrere Male, sehr viele Male angetriggert
00:06:16: wird für kleinere und größere Tasks, für Brainstorming, für Sachen umbauen, formulieren,
00:06:20: Content Recycling, Content Erstellung, Planung, strategische Themen,
00:06:24: wo ich halt auch immer mehr halt auch dann diese Custom-GPTs mir baue,
00:06:28: wenn ich sehe oder wenn ich Use Cases erkenne.
00:06:30: Das ist ganz langweilig, ein ChatGPT und dadurch, dass ich mittlerweile recht
00:06:35: viel so KI-Coding betreibe, eigene kleine Tools baue, ohne hier jemals Coding-Background zu haben.
00:06:41: Ich bin auch natürlich kein Entwickler, aber auch so Sachen wie Cursor mittlerweile
00:06:44: fast ein täglicher Begleiter, um Sachen auszuprobieren.
00:06:47: Wir machen das jetzt einmal der Reihe nach. Du hast ja gerade ganz viele Beispiele
00:06:50: genannt, wie du eben beispielsweise personalisierte GPTs nutzt.
00:06:55: Lass uns da vielleicht doch beim Beispiel Projektmanagement bleiben,
00:06:57: weil ich könnte mir vorstellen, das betrifft sehr, sehr viele Menschen im Arbeitsalltag.
00:07:02: Vielleicht kannst du mal an einem Beispiel festmachen, wie du da ein GPT aufgesetzt hast.
00:07:08: Es kommt natürlich immer ein bisschen auf den Scope, beziehungsweise auf das
00:07:12: Thema an, wie umfangreich so ein Projektmanagement ist.
00:07:14: Ich glaube, ich sehe so ein paar Facetten, wo KI unterstützen kann.
00:07:18: Auf der einen Seite natürlich ganz klassisch, Projekte strukturieren,
00:07:21: aufbauen, aus unstrukturierten Daten strukturierte Daten machen,
00:07:25: das heißt beispielsweise aus Gesprächsnotizen, aus handschriftlichen Notizen zur Not sogar.
00:07:30: Auch da können ja Bilder ganz gut dienen als Grundlage und da halt einfach eine
00:07:34: Struktur in unstrukturierte Daten reinbringen, um beispielsweise Projekte zu planen.
00:07:38: Aber wenn ich an Projektplanung denke oder Projektmanagement,
00:07:41: denke ich auch an Tickets beispielsweise und wenn ich an Tickets denke,
00:07:45: dann denke ich auch immer an meistens sehr unzufriedene Entwickler,
00:07:48: weil die Tickets nicht so geschrieben sind, wie man sie schreiben sollte.
00:07:51: Das heißt, auch die Kommunikation untereinander kann das auch verbessern,
00:07:54: indem beispielsweise Entwickler ein GPT bauen könnte,
00:07:57: der dann ans Marketing geht oder an die Abteilung, die damit arbeitet und sagt,
00:08:01: guck mal hier, die Daten brauche ich und da könnte zum Beispiel auch ein GPT
00:08:05: dienen, um so Anforderungen entsprechend abzufrühstücken.
00:08:08: Also ich glaube, das Spannende bei den GPTs ist nicht nur, dass man hier quasi
00:08:12: einen Output direkt generieren kann auf Grundlage eines Prompts,
00:08:16: sondern auch Prozesse abbilden kann.
00:08:17: Man kann ja auch sagen, okay, der User gibt dir erst das, dann im zweiten Schritt
00:08:21: fragst du das ab und im dritten Schritt das und dann machst du erst Schritt vier.
00:08:24: Und in der Regel, je nachdem, wie man es promptet, hält sich so ein GPT auch daran.
00:08:27: Das heißt, man kann auch kleinere Prozesse damit abbilden. Was da vielleicht
00:08:30: wichtig ist zu sagen für diejenigen, die gerade zuhören und noch kein eigenes
00:08:33: GPT erstellt haben, Ihr braucht dafür keine Programmierkenntnisse und auch jetzt
00:08:37: kein mathematisches großes Verständnis, sondern wie du gesagt hast,
00:08:42: es funktioniert einfach mit Promts, je nachdem, wie man das Ganze aufbaut, mit Nachfrage etc.
00:08:48: Ich würde jetzt mal, außer du widersprichst, mir sagen, es ist relativ leicht
00:08:53: umsetzbar, sofern man sich eben klargemacht hat, was möchte ich eigentlich und
00:08:57: wieso möchte ich beispielsweise meinen Prozess unterstützen?
00:09:02: Hundertprozentige Zustimmung. Und ich glaube, den zweiten Teil,
00:09:04: den du gesagt hast, ist umso wichtiger.
00:09:06: Ich glaube, wir haben über die letzten Jahre immer mehr verlernt,
00:09:10: was wir eigentlich den ganzen Tag tun und das irgendwie in Worte zu fassen und
00:09:13: irgendwie Prozesse auch in unserem Kopf klar zu definieren.
00:09:16: Und das merke ich auch selber auch in der Arbeit mit Kunden,
00:09:19: das ist oft die größte Herausforderung, gar nicht die Technologie,
00:09:21: sondern was mache ich eigentlich den ganzen Tag und wie kann mir jetzt so eine
00:09:24: KI unterstützen und was ist eigentlich meine Erwartungshaltung,
00:09:28: wenn ich jetzt beispielsweise im Social-Media-Bereich sage, ich möchte einen LinkedIn-Post haben,
00:09:32: und das als Prompt eingebe, dann bekomme ich einen LinkedIn-Post raus,
00:09:35: aber das Ding ist halt nicht definiert, das heißt, ich muss mir überlegen,
00:09:37: was will ich eigentlich mit, also schon so weiterdenken, was ist eigentlich
00:09:39: das Ziel von so einem LinkedIn-Post von mir
00:09:42: und ich glaube, das ist so die größte Herausforderung und wie du sagtest,
00:09:44: Nicht das Aufsetzen von GPTs, weil das ist mit natürlicher Sprache immer einfacher
00:09:48: möglich oder auch mit Voice Input.
00:09:51: Das, was du gerade angesprochen hast, ist, glaube ich, da auch ein großes Thema.
00:09:54: Natürlich, wenn ich oberflächlich irgendwas eingebe, dann bleibt mein Ergebnis oberflächlich.
00:09:58: Also dieses klassische Beispiel, generiere mir einen Linkedin-Post zum Marketing.
00:10:03: Da wird nichts bei Gutes rumkommen und zwar mit Ansage. Aber ich habe noch eine
00:10:07: Frage. Du hast ja gesagt, ChatGPT ist so dein Go-To.
00:10:10: Test es aber auch andere. Was genau macht ChatGPT für dich immer noch am besten,
00:10:16: auch im Vergleich zu Microsofts Co-Pilot beispielsweise, den ja auch viele in der Arbeit nutzen?
00:10:22: Ich muss sagen, Microsoft Co-Pilot, das Feedback, was ich so höre,
00:10:26: ist oft so, dass die meisten es nutzen müssen und nicht, weil sie es nutzen
00:10:29: wollen, weil natürlich mit Microsoft das Thema Datenschutz etc.
00:10:32: Im Unternehmen meistens besser handelbar ist als mit einem ChatGPT,
00:10:35: je nachdem, was für Lizenzen man so hat.
00:10:38: Für mich macht ein guter KI-Assistent aus, dass er,
00:10:43: mich schnell zum Ziel führt. Und das ist zum Beispiel bei JGBT mit meinem aktuellen
00:10:48: Setup so, dass ja durch die Personalisierung auch oft erkannt wird,
00:10:51: was möchte ich vielleicht als nächstes machen, auch da Vorschläge mitgeben.
00:10:54: Das heißt, auch der Workflow ist nicht nur linear, dass ich sage,
00:10:56: ich habe einen Prompt, einen Output und fertig, sondern dann schlägt mir JGBT noch was vor.
00:11:00: Das heißt, Personalisierung für mich ein großer Punkt mittlerweile,
00:11:03: die auch immer besser wird.
00:11:06: Integrationen, da habe ich unterschiedliche Römer ganz gerne zu Claude,
00:11:09: weil die jetzt auch seit gestern glaube ich, also seit Montag, 14.
00:11:14: Juli genau, so ein MCP-Directory haben also quasi nochmal ein Directory,
00:11:18: ein Verzeichnis für Integration, das heißt auch hier zu gucken,
00:11:21: welche KI-Systeme können denn mit den Tools, die ich hier selber nutze, auch arbeiten.
00:11:24: Da ist ChatGPT auf dem Weg, da ist Claude gerade aktuell weiter,
00:11:27: das heißt Personalisierung, Integration.
00:11:29: Und die GBTs, das ist so für mich der Grund, warum ich gerade noch bei ChatGPT
00:11:33: bin, aber ich bin auch der Meinung, dass es oft gar nicht darauf ankommt,
00:11:37: was für ein Tool man oder was für ein Modell man nutzt, in vielen Fällen, nicht alle natürlich,
00:11:41: sondern eher, was deckst du damit ab, was sind deine Prozesse,
00:11:44: weil ob ich jetzt, wie du gerade sagtest, schreibe mir LinkedIn-Beitrag zum Thema Marketing,
00:11:48: schlechter Prompt, ob ich den jetzt in Gemini ranfacke, Claude oder ChatGPT,
00:11:53: bekomme ich überall das raus, was ich wahrscheinlich nicht erwarte,
00:11:55: das heißt, es liegt ja nicht am Tool, sondern eher am eigenen Prompt und ich
00:11:59: glaube, da muss man sich ein bisschen mal anschauen, womit man am besten arbeiten
00:12:02: kann und am schnellsten ist.
00:12:03: Ja, ich glaube, das ist natürlich das eine, je nachdem, wie gut du eben prompten
00:12:07: kannst, was man ja auch lernen kann.
00:12:08: Ich meine, wenn man einmal die Grundbasis beispielsweise verstanden hat,
00:12:12: kommt es immer darauf an.
00:12:13: Aber die Daten werden ja auch unterschiedlich verarbeitet in den verschiedenen
00:12:17: Systemen. Also Claude ist ja anders programmiert als Chat-GPT.
00:12:20: Ich hatte neulich auch hier im Podcast mit Ann-Kathrin Gerstler gesprochen,
00:12:23: einer Sprachexpertin, die beispielsweise gesagt hat, für sie persönlich funktioniert
00:12:27: Claude besser, weil sie das Gefühl hat, er kann besser mit Sprache.
00:12:31: Was jetzt auch mit dem, was du sagst, ich glaube, es ist ein individuelles Ausprobieren
00:12:36: und Testen, was für den persönlichen Zweck eben am besten passt.
00:12:40: Vielleicht noch eine Ergänzung, du nutzt aber dann natürlich auch das kostenpflichtige
00:12:44: Chat-GPT-Abo, sonst wähltest du ja gar nicht alle Funktionen.
00:12:48: Also die Funktion, dafür braucht ihr dann ein Abo.
00:12:51: Genau, aber welche Tools sind denn für dich vielleicht gerade noch auch im Bereich
00:12:55: Bildgenerierung relevant? Das ist ja auch sehr spannend mit künstlicher Intelligenz.
00:12:59: Google gerade draus mit VO3.
00:13:01: Was hast du da gerade auf dem Schirm und sagst, hey, das sollte man nutzen?
00:13:06: Ja, genau. Also Google hat natürlich da mit Veo 3 im Videobereich ordentlich abgeliefert.
00:13:11: Die haben ja auch ein eigenes Bildmodell mit Image Gen 4.
00:13:14: Was meine persönliche Meinung zur Bildgenerierung ist, ist, dass es mittlerweile
00:13:18: sehr viele Modelle gibt, die gute Ergebnisse, in Anführungszeichen,
00:13:21: was auch immer man erwartet, gute Ergebnisse bringen. Das heißt,
00:13:23: ob ich jetzt einen Flux nutze, ein Ideogramm oder vielleicht auch mit Journey,
00:13:28: ist meistens auch zweitrangig. Auch da überlegen, was für einen Stil will ich
00:13:31: vielleicht haben und was ist das Ziel von so einem Bild.
00:13:33: Und auch das Thema Datenschutz. Ich meine, wir haben Adobe Firefly,
00:13:36: die mit eigenen Daten trainiert hat, die eine gewisse Datenschutzgarantie geben
00:13:40: können. Bei den anderen Tools ist das nicht so der Fall.
00:13:43: Ich bin mittlerweile ein recht großer Fan von dem Tool FreePick.
00:13:46: FreePick kennt man eigentlich von, die gibt es schon ganz, ganz viele Jahre,
00:13:51: deswegen heißen die auch so, kommt man kostenlose Bilder, Icons,
00:13:53: Piktogramme runterladen.
00:13:54: Und die haben aber diese KI-Welle ganz gut mitgespielt. Das heißt,
00:13:57: ich habe eine eigene AI-Suite.
00:13:59: Ich komme auch aus Spanien, das heißt, auch ein europäisches Unternehmen,
00:14:01: ist auch mal ganz cool. Und die kombinieren verschiedene Modelle.
00:14:04: Das heißt, die meisten Modelle, die man hat, auch für Bildgenerierung und für
00:14:06: Videogenerierung, das heißt, Google, Ideogramm, Flux, was gibt es noch?
00:14:11: Runway hat auch mittlerweile ein Image-Den-Modell. Die sind alle in einer Plattform
00:14:15: kombiniert. Und das ist für mich so etwas, wo ich mir denke,
00:14:17: okay, wie ist mein Anspruch an Bildgenerierung?
00:14:20: Wie tief muss ich gehen? Brauche ich mal Bilder, die meine Ideen visualisieren?
00:14:24: Und da gucke ich mir meistens so Tools an, die für mich schnell funktionieren.
00:14:27: Da ist zum Beispiel Freepick eine absolute Empfehlung von mir,
00:14:29: weil es ist schnell, es ist günstig, gibt einen Free-Account, wo man auch nutzen kann.
00:14:33: Und ansonsten natürlich jetzt auch mit der Videogenerierung finde ich ganz spannend,
00:14:36: auch Midjourney hat in den letzten Jahren, in den letzten Jahren geht man so schnell,
00:14:41: Monaten so ein bisschen an Fahrt verloren, finde ich, weil jetzt auch gerade
00:14:43: natürlich die anderen Modelle wie ein Flux oder wie auch ein Google da irgendwie
00:14:48: sehr stark gekommen sind.
00:14:49: Ich finde das aktuelle Modell plus die Video-Generierung eigentlich schon ganz spannend.
00:14:53: Und wenn du da halt irgendwie einen bestimmten Stil im Kopf hast,
00:14:55: kriegst du den in Mid-Journey eigentlich ganz gut umgedeckt.
00:14:57: Das heißt, in kurzer Antwort, FreePick als Empfehlung, um mehrere Modelle abzubilden
00:15:02: und Mid-Journey, weil es da immer noch keine API gibt oder keine Programmierungsstelle.
00:15:06: Was du aber eben gerade gesagt hast, es kommt immer darauf an,
00:15:08: hast du glaube ich formuliert, was man eben unter gut versteht.
00:15:12: Ja, was ist denn gut bei so einer KI-Bildgenerierung? Was sind die Unterschiede?
00:15:19: Ich glaube gut und das finde ich auch so spannend an diesem KI-Thema,
00:15:22: dass wir bestimmte Sachen hinterfragen.
00:15:23: Was ist Kreativität, was ist gut, was ist AGI oder ein ganz anderes Thema.
00:15:28: Und ich finde gut ist für mich, wenn es mein Ziel erfüllt, weil ich finde gerade
00:15:33: im visuellen Bereich hat man ja ganz oft ein Bild im Kopf.
00:15:36: Ob wenn ich sage, ich brauche ein Bild für meine PowerPoint-Präsentation,
00:15:39: für den Header der Webseite, dann hat man ja eigentlich schon eine grobe Richtung
00:15:42: im Kopf, irgendwie bewusst oder unbewusst.
00:15:44: Und für mich ist es gut, wenn ich mit einem Tool da relativ schnell hinkomme
00:15:48: und relativ nah an dem, was ich mir selber vorstelle.
00:15:51: Und ob es dann für andere gut ist, das ist, glaube ich, nochmal ein Diskussionsthema.
00:15:54: Was du aber gerade auch gesagt hast, man muss ja irgendwie formulieren,
00:15:58: so was man im Kopf hat, diese Idee zu Papier bringen und da kommst du auch bei
00:16:02: der Tool-Nutzung nicht drum rum, sondern du musst ja die passenden Worte finden,
00:16:05: um eben deine Bild-Idee eigentlich zu beschreiben.
00:16:10: Hast du da vielleicht noch einen Tipp oder gibt es auch ein Tool,
00:16:12: was mir das erleichtert? Ja und ja.
00:16:17: Wir haben ja mittlerweile mit allen möglichen KI-Tools eine recht gute visuelles
00:16:21: Verständnis oder auch Nutzung.
00:16:23: Das heißt, in JGPT hat er auch als Vision-Modell, das heißt,
00:16:25: auch Bilder können verarbeitet werden.
00:16:27: Und was ich relativ häufig mache, sind zwei Sachen.
00:16:31: A, wenn ich ein bestimmtes Bild habe, entweder zum Beispiel ein eigens geschossenes
00:16:34: Bild oder auch eine Inspiration im Web, wo ich sage, der Stil gefällt mir,
00:16:38: die Inhalte gefallen mir,
00:16:40: dass ich das quasi in JGPT reinpacke und sage, erklär mir mal das Bild oder
00:16:44: strukturier mir das Bild. Wie sieht denn das Licht aus, etc.?
00:16:48: Weil ich bin jetzt kein Fotograf, das heißt, ich kann auch mit Begriffen aus
00:16:53: der Fotografie nicht so arbeiten.
00:16:54: Wenn jemand JTBT dabei mir unterstützt und das erkennt und mir vielleicht dann
00:16:57: eine Richtung vorgibt, kann ich damit testen.
00:17:00: Und was ich ganz häufig mache, ist dadurch, dass ja auch die Bildgenerierung,
00:17:03: gerade zum Beispiel bei Flux, die haben ein schnelles Modell,
00:17:06: das dauert eine Sekunde, kostet ein paar Cent, ist halt nicht das High-End-Modell,
00:17:11: aber ist halt schnell zum Eterieren super toll.
00:17:13: Und da lasse ich mir ganz gerne von JetGPT mal ein paar Ideen in eine Richtung geben.
00:17:18: Ich sage, ich möchte gerne ein Bild, was das Ziel erreicht, was vielleicht ungefähr
00:17:21: so aussieht in meinem Kopf.
00:17:22: Erstell mir mal Prompts für einen KI-Assistenten und lasse mir quasi von JetGPT
00:17:26: Prompts generieren. Und in der Regel gehen die ein bisschen auseinander.
00:17:30: Das kann man natürlich mit visuellem Input nochmal stärken. Aber ich iteriere
00:17:33: halt ganz, ganz schnell.
00:17:34: Und ich finde die Veränderung der Arbeitsweise oft ganz spannend.
00:17:37: Wir sind ja mittlerweile, wenn wir früher ein Bild generiert haben,
00:17:40: haben wir, ich habe mal was mit Medien gelernt, Deswegen Photoshop damals Haare
00:17:45: freistellend im Photoshop, oh Gott.
00:17:47: Oh ja, ganz schlimm. Pain, also nie wieder. Zum Glück, danke KI.
00:17:53: Und habe da auch halt auf ein Bild hingearbeitet, Ebenen erstellt,
00:17:58: Maskierungen und so weiter.
00:18:00: Und jetzt haben wir ja quasi so einen kompletten, also nicht komplett, aber so einen Shift.
00:18:04: Das heißt, wir erstellen ja plötzlich fertige Bilder und suchen uns dann welche
00:18:08: aus, was ja auch total faszinierend irgendwie ist.
00:18:11: Und da versuche ich halt immer auch mit KI-Tools wie in ChatGPT mir Unterstützung
00:18:15: zu holen, zu sagen, ich habe mein Ziel, das Ziel immer im Blick behalten,
00:18:18: sagen, ich möchte ein Bild, was das erfüllt, vielleicht sogar den Kontext mitgeben.
00:18:22: Ich finde neben dem ganzen Thema Prompting ist auch Kontext super wichtig,
00:18:25: wenn ich zum Beispiel, und ich glaube, das muss man auch lernen,
00:18:27: wenn ich eine Präsentation mache und sage, ich möchte ein Bild mit einem Roboter,
00:18:31: der Saxophon spielt, keine Ahnung,
00:18:34: dann habe ich ja, das ist ja quasi das Ziel, oder das Bild, was ich mir wünsche,
00:18:37: ich habe aber vielleicht ein ganz anderes Ziel, vielleicht möchte ich,
00:18:40: dass dieser der Roboter, der Saxophon spielt,
00:18:42: vielleicht eine Aufmerksamkeit, vielleicht auch eine Angst erzeugt,
00:18:46: vielleicht auch eine bestimmte Zielgruppe anspricht, dass ich sage,
00:18:49: vielleicht ist das für Kinder.
00:18:50: Also das ist ja quasi ein anderes Ziel. Und ich glaube, Kontext ist da super
00:18:53: wichtig, dass wir das zum digitalen Papier quasi bringen.
00:18:57: Spannend, was du gerade angesprochen hast. Und ich erinnere mich,
00:18:59: als wir unser Vorgespräch geführt haben, haben wir auch darüber gesprochen,
00:19:02: dass es ja auch den Weg gibt, direkt mit Stimme zu arbeiten.
00:19:05: Was ich persönlich total spannend finde, war ja auch für Recherchen und Co.
00:19:09: Ich höre halt gerne was und ich rede auch gerne.
00:19:12: Dementsprechend passt zum Podcast.
00:19:17: Ich glaube, da hattest du Whisper empfohlen, oder? Genau, da gibt es für Mac
00:19:23: und für Windows verschiedene Applikationen.
00:19:25: Ich bin Mac-Nutzer, deswegen für Windows gibt es da ähnliche Sachen.
00:19:28: Whisper Flow gibt es, was ich ganz gerne nutze und das ermöglicht,
00:19:32: das haben ja mittlerweile auch manche Rechner so nativ, aber das ist nochmal eine Ecke schneller,
00:19:37: dass ich in jeder Applikation, die ich am Rechner aufhabe, wo ein Textfeld quasi
00:19:41: ist, sprechen kann und das innerhalb von, je nachdem wie lange ich spreche,
00:19:46: wenigen Sekunden, also gerade kurze Sätze ist in der Sekunde da,
00:19:49: ich den Text da habe mit einer,
00:19:51: boah, bei mir mittlerweile 95% Korrektheit, wenn ich sogar höre.
00:19:56: Also muss da selten bis gar nicht irgendwie Fehler auspfeilen.
00:20:00: Und das ist, man gewöhnt sich da sehr schnell dran. Ich glaube,
00:20:03: im Großraumbüro ist das keine gute Idee, wenn alle quatschen . Aber.
00:20:08: Es ist eine ungewohnte Art, mit Technologie zu arbeiten am Anfang,
00:20:14: aber es ist einfach, finde ich, für die Kontextthematik enorm wichtig,
00:20:18: weil wenn du quatschst quasi mit einem Kollegen oder einer Kollegin und du sagst
00:20:23: ja viel mehr auf der Tonspur,
00:20:25: wenn du es schreiben würdest, würdest du dir überlegen, was schreibe ich denn,
00:20:27: wie schreibe ich denn was und so kannst du einfach drauf losquatschen.
00:20:30: Deswegen, oft ist es so, gerade im Kreativprozess mache ich ganz oft mit Voice-Input,
00:20:35: mittlerweile auch so KI-Coding mit Voice.
00:20:38: Das ist viel, viel schneller, viel bequemer und funktioniert erstaunlich gut.
00:20:42: Kann ich allen empfehlen. Ansonsten den Advanced Voice-Mode von ChatGBT auf
00:20:47: jeden Fall mal testen, ist mittlerweile auch echt sehr, sehr gut geworden.
00:20:49: Du hast gerade angesprochen das Thema KI-Coding, was ja bedeutet,
00:20:53: dass du quasi codest, allerdings mit Unterstützung von künstlicher Intelligenz.
00:20:58: Je nachdem gibt es ja verschiedene Tools, da kommen wir jetzt zu,
00:21:01: wie ausgreift es ist, ob du selber Code eingibst, der dann quasi überarbeitet
00:21:04: wird oder ob du auch richtig Code vorgeschlagen bekommst.
00:21:08: Code vorgeschlagen bekommen funktioniert ja auch, da brauche ich ja erstmal
00:21:10: kein Code-Verständnis.
00:21:12: Hast du da vielleicht auch ein Tool, was ganz sinnvoll ist? Absolut, mehrere.
00:21:19: Ich glaube, das Thema KI-Coding ist total spannend, weil man hier plötzlich
00:21:23: in der Lage ist, Ideen, die man so sonst im Alltag hat, plötzlich umzusetzen.
00:21:26: Natürlich gibt es definitiv noch Limitierungen nach oben, aber ich baue mir
00:21:31: mittlerweile viele kleine Tools selber, weil ich sage, ich habe den Need,
00:21:35: das Programmieren zu lassen ist zu teuer, macht keinen Sinn.
00:21:37: Ein Tool, das das kann und nur das ist wahrscheinlich schwierig zu finden und
00:21:42: da ist zum Beispiel ein sehr einfach, ein guter Einsteiger von das Tool Lovable, also L-O-V.
00:21:48: Able, Lovable.dev die quasi wie ein ChatGPT dir ermöglichen, Webseiten zu bauen,
00:21:54: kleine Web-Apps mittlerweile auch Integration wieder haben zu Datenbanken,
00:21:59: dass auch so ein User-Centification da möglich ist und das ist spannend,
00:22:04: wenn du siehst, dass innerhalb von,
00:22:05: ein paar Minuten, da plötzlich deine Idee in so eine Web-App geht,
00:22:09: die du auch wirklich nutzen kannst.
00:22:11: Das heißt, sowas wie, ich zeige ganz oft, mach mal eine To-Do-App für den und
00:22:15: den Case mit den und den Anforderungen und ich bekomme in zwei Minuten halt
00:22:18: eine fertige To-Do-App mit meinen Anforderungen, in meinem Stil,
00:22:21: in meinen Farben, wie auch immer und kann da halt aber noch weiterarbeiten.
00:22:25: Das heißt, ich habe auch diesen Chat- und Iterationsmodus auch mit drin,
00:22:29: dass ich sage, nee, mach das mal so, mach das mal so und das ist total spannend.
00:22:32: Vielleicht auch spannend für diejenigen, die sich für Startups interessieren,
00:22:35: weil Lovable ist ein sehr junges Unternehmen, kommt aus Schweden und ich meine,
00:22:39: gehört zu haben, wird so ein bisschen von der Innovationskraft gefeiert als
00:22:42: das neue Spotify durchaus.
00:22:44: Gibt natürlich auch Mitarbeiter am Markt, also das muss man auch sagen,
00:22:47: die haben jetzt nicht quasi das Rad neu erfunden, aber ist glaube ich ein Unternehmen,
00:22:51: was auf jeden Fall spannend ist und natürlich auch aus Europa kommt.
00:22:57: Dementsprechend, genau, vielleicht auf jeden Fall interessant.
00:23:00: Und ich glaube, was vielleicht auch noch ganz cool ist, Cursor.com,
00:23:05: steht dann auf meiner Liste, weil wir haben jetzt über Tools gesprochen,
00:23:08: aber damit kannst du ja auch einfach Webseiten beispielsweise dir bauen,
00:23:11: was sich auch total spannend und ich denke auch mal relevant für den einen oder
00:23:15: die andere, die hier zuhören, finde.
00:23:18: Absolut, Cursor ist für mich nochmal so der nächste Schritt zu Lovable.
00:23:22: Man muss hier fairerweise ein bisschen, ich will nicht sagen Coding-Erfahrung, aber so ein bisschen,
00:23:29: technisches Verständnis mitbringen, weil es ist eine vollwertige Programmierlösung,
00:23:32: also ich kenne auch echte Programmierer, nicht so Leute wie ich,
00:23:36: die damit arbeiten, das heißt auch wirklich high-level,
00:23:39: und das heißt, da kann man auch schnell mal überfordert sein,
00:23:42: aber man hat trotzdem diesen Chat-Gedanken, da baue ich mir beispielsweise auch
00:23:44: Chrome-Plugins relativ schnell, wenn ich sage, ich habe hier irgendwie eine Idee,
00:23:48: brauche das mal eben, sollte das und das tun, spart mir dann ein paar Stunden
00:23:51: Zeit, ist in 10 Minuten gebaut und das ist krass, ich habe tatsächlich heute
00:23:54: heute Morgen auch mal als Fun, weil ich damit auch viel teste einfach,
00:23:57: was ist denn möglich und wo sind die Limitierungen auch von den einzelnen Modellen, ein Game gebaut.
00:24:01: Mache ich bestimmt mal ein Posting zu, aber auch da Sachen, die man vorher vielleicht
00:24:06: im Kopf hatte, niemals umsetzen konnte, weil die Lernkurve dahin einfach viel
00:24:09: zu krass war, sind plötzlich immer mehr möglich und umsetzbar. Das ist total cool.
00:24:13: Das Curse auf jeden Fall mal ausprobieren. Wir halten fest, aber vielleicht
00:24:16: erstmal für die Fortgeschrittenen, sonst ruhig mal mit Lovable starten.
00:24:20: Wie ist denn deine Einschätzung? Ab welchem Status macht es denn vielleicht
00:24:24: Sinn oder was ist der Punkt eher gesagt Status ist da vielleicht der falsche
00:24:28: Begriff, wo man sagt, hey ich fange an mir selber Tools zu bauen,
00:24:32: Websites zu programmieren etc.
00:24:35: Ich glaube man muss,
00:24:36: Das darf man, glaube ich, nicht vergessen. Auch realistisch sehen,
00:24:39: was kannst du damit wirklich bauen?
00:24:41: Ich glaube, sowas wie Lovable, ja, da gibt es schon erste Cases für komplette
00:24:44: SaaS-Lösungen, die auch am Markt sind, damit gebaut sind.
00:24:48: Du kommst aber irgendwann an einen Punkt, wo auch Skalierung ein Thema ist,
00:24:51: wo auch Sicherheit ein größeres Thema ist. Das heißt, ich glaube,
00:24:53: für Prototypen ist es genial, dass du halt schnell was baust,
00:24:56: was du vielleicht auch intern nutzt.
00:24:57: Das heißt, auch da zu unterscheiden, was will ich damit erreichen?
00:25:00: Will ich damit das nächste Unicorn bauen, was irgendwie 1000 User pro Sekunde hat?
00:25:04: Oder will ich was bauen, was mein Team von 20 Leuten gerade nutzt und den konkreten
00:25:08: Pain nutzt? Dafür super geil.
00:25:10: Und auch für die Kommunikation. Also ich habe ganz oft den Fall gehabt in meiner
00:25:14: Arbeitslaufbahn, man geht als Marketer zu einem Entwickler mit einer Idee,
00:25:18: sagt, ich möchte das so und so haben.
00:25:20: Der Entwickler versteht was komplett anderes, als man selber meint.
00:25:22: Und am Ende kommt man so raus, weil er sagt, ja, hab ich doch ganz anders gesagt. Ja, nee, hast du nicht.
00:25:26: Also auch die Kommunikationsgrundlage zu schaffen, weil wenn der Marketer mit
00:25:29: einem MVP dahin kommen, mit einem Prototypen und sagen, guck mal hier.
00:25:33: So soll das sein, nur in unseren Farben, mit unserem Stil, vielleicht den und
00:25:36: die anderen Sachen nur angepasst, das ist eine ganz andere Kommunikationsgrundlage,
00:25:39: als es einfach nur mit Ideen wäre.
00:25:42: Und ich glaube, dafür ist es praktisch. Und ich glaube, wenn man so neugierig
00:25:48: ist und Sachen gerne ausprobiert, gerne mal ein bisschen bastelt und vielleicht
00:25:51: so den ersten Use-Guess hat, so eine Chrome-Extension, ich habe da so einen kleinen Fall,
00:25:56: so etwas Einfaches, gar nicht zu sagen, ich möchte jetzt irgendwie das nächste
00:25:59: Riesending bauen, sondern einfach ein kleines Automation-Ding im Browser vielleicht,
00:26:03: einfach mal ausprobieren.
00:26:05: Was ich gemerkt habe, man lernt auch unglaublich die Möglichkeiten und gleichzeitig
00:26:09: auch die Limitierung, ob man solchen Tools kennt, aber nur, wenn man es auch wirklich nutzt.
00:26:13: Du hast mehrmals schon angesprochen, Limitierung auch, auch in deinem Test heute
00:26:17: Morgen bist du an Grenzen gekommen.
00:26:19: Wie sehen denn diese Grenzen, wenn wir jetzt wirklich auf KI-Tools gucken,
00:26:23: KI-Agenten kommen gleich noch, wie sehen sie bei KI-Tools aus?
00:26:28: Ganz, ganz unterschiedlich. Also wir merken auch gerade, wenn wir mit Teams
00:26:32: zum Thema Bildbearbeitung oder generell Bildgenerierung oder Multimedia in weitesten
00:26:36: Sinne sprechen, da hast du ganz oft noch die ehesten Erfahrungen an Limitierung.
00:26:40: Das heißt, klar, es ist noch nicht perfekt und gerade wenn du eine ganz konkrete
00:26:43: Idee hast, das umzusetzen, ist halt dann immer noch Arbeit.
00:26:46: Das heißt, man muss, glaube ich, überlegen und auch ganz ehrlich sein,
00:26:50: dass hier natürlich KI-Tools super sind, aber es sind halt auch Werkzeuge,
00:26:53: um vielleicht auch Prozesse zu erweitern, zu verbessern.
00:26:57: Und bei manchen Prozessen sind sie halt nur so gut, dass da 20 Prozent verbessert
00:27:01: werden kann, bei manchen halt ein bisschen mehr.
00:27:02: Das heißt, ich glaube, gerade im
00:27:04: Multimedia-Bereich hast du immer noch Limitierungen, dass man immer noch,
00:27:08: Vielleicht nicht unbedingt das Ziel perfekt erreicht, das heißt auch vielleicht
00:27:11: nochmal sieht, dass es ein bisschen KI-Bild ist, je nachdem, was für Ziele man hat.
00:27:14: Aber in den letzten Jahren hat sich dieses Limit halt so krass verschoben.
00:27:19: Wenn ich überlege, ich habe 2023 auf dem OMR-Festival damals eine Keynote gehalten.
00:27:25: Die Bilder und Videos, die ich damals gezeigt habe, das ist nicht lange her,
00:27:30: ist halt lachhaft. Also das war halt cool damals.
00:27:33: Also da würde ich sagen, das ist schlechte Bilder, schlechte Videos.
00:27:36: Das heißt, diese Limits verschieben sich auch immer und deswegen finde ich es
00:27:38: umso wichtiger, dass man sich damit beschäftigt, weil wenn man nur von den Limits
00:27:42: hört, dann können die vielleicht, wenn man es hört, auch gar nicht mehr stimmen.
00:27:45: Das heißt, diese Erfahrung, diese Praxis finde ich super, super wichtig und
00:27:48: dann erkennt man das, glaube ich, auch ganz gut.
00:27:50: Was wir, glaube ich, schon mal festhalten können, ist auf jeden Fall,
00:27:53: es geht nicht darum, irgendwie ein KI-Tool einfach nur in Anführungszeichen zu nutzen,
00:27:58: sondern jeder, der damit arbeiten möchte und das auch sollte,
00:28:01: weil es einfach unsere Arbeitswelt verändern und in den nächsten Jahren wahrscheinlich
00:28:04: auch sehr prägen wird, sollte auf verschiedene Tools zurückgreifen.
00:28:07: Das heißt, wenn jetzt noch nicht geschehen, auf jeden Fall testen und sich so
00:28:10: das eigene kleine Setup oder dem Team das eigene kleine Setup arrangieren,
00:28:15: würde ich sagen. Kann ich genauso zustimmen.
00:28:18: Ich sehe das Ganze bei mir immer so als Werkzeugkasten.
00:28:21: Es sind gerade ganz viele Werkzeuge, die entstehen und wie in einem echten Werkzeugkasten
00:28:24: hat man ja auch gelernt, wofür nutzt man einen Hammer, wofür man eher einen
00:28:27: Schraubendreher benutzt und sowas finde ich auch gerade bei KI-Tools.
00:28:30: Und es gibt natürlich auch bei den Sprachmodellen, wo ich sage,
00:28:33: da nutze ich lieber Gemini, da nutze ich lieber ChatGPT.
00:28:36: Das ist aber auch die Erfahrung und ich glaube, so sollte man das sehen,
00:28:39: gar nicht als das Holy AI Tool, was quasi jetzt alles kann und alle arbeitslos
00:28:44: macht gefühlt und mit einem Klick natürlich, sondern da wirklich gucken,
00:28:48: wie kriegt man so ein Tech-Stack hin.
00:28:49: Und dann kommen natürlich auch unternehmensspezifisch immer noch die Herausforderungen,
00:28:53: was haben wir vorher für ein Tech-Stack gehabt oder was haben wir aktuell für
00:28:56: eins, wie spielt das da rein?
00:28:58: Und auch das Thema Datenschutz etc. Also da hat man natürlich eine andere Anforderung.
00:29:02: Das heißt aber, so einen Werkzeugkasten zu erstellen für sich,
00:29:04: dass man so einen Handlungsweg ist, glaube ich, wichtig.
00:29:07: Tolles Stichwort, Datenschutz. Ich weiß, ein Lieblingsthema vieler Menschen.
00:29:12: Aber wie machst du denn das? Hast du ein paar Tipps, um eigentlich zu checken,
00:29:15: ob der Datenschutz von KI-Tools passend ist?
00:29:20: Richtig schwieriges Thema, finde ich. Vor allen Dingen, weil ich die Herausforderung
00:29:26: finde und das merke ich auch in der Arbeit mit Unternehmen,
00:29:29: du hast halt nicht diese Rückverfolgung und das macht das Ganze,
00:29:34: finde ich, super schwierig, auch einzudämmen und zu kontrollieren.
00:29:39: Wenn ich jetzt als irgendwie Mitarbeiter im Unternehmen bin und sage,
00:29:42: ich möchte jetzt, die IT ist irgendwie doof, ist mir zu langsam,
00:29:46: das Comedy-GPT ist schlecht, dann nutze ich den JGBT, packe da aus Versehen
00:29:50: jetzt den CRM-Export rein, poopsilein.
00:29:53: Das kriegst du halt A, nicht bewiesen und B, auch nicht mehr wieder.
00:29:56: Also, und ich glaube, das ist ein riesengroßes Problem, dass man hier schnell
00:30:01: diese so Shadow-IT quasi hat, dass jeder das mal irgendwie nutzen kann,
00:30:06: eine App auf dem Handy zu installieren, sind zwei Klicks und zack,
00:30:08: hat man JGBT irgendwie aktiv.
00:30:11: Ich glaube, da ist es ganz wichtig, dass man nicht nur Verbote ausspricht,
00:30:14: sondern guckt, dass man da eine gute Regelung findet.
00:30:16: Und für den privaten Gebrauch oder generell die eigene Nutzung,
00:30:19: wenn man da so ein bisschen nicht ein großes IT-Team hat oder sowas,
00:30:22: halt auch zu schauen, wie sensibel sind die Daten.
00:30:26: Habe ich in den Tools, wie zum Beispiel in ChatGPT, eine Möglichkeit,
00:30:29: das Training auszustellen, weil alles, was man sonst in ChatGPT reingibt,
00:30:33: wird halt zum Trainingsdatenzweck mitbenutzt. Das kann man aber ausstellen in den Einstellungen.
00:30:38: Ist das eine Option, die auch reicht? Auch bei manchen daneben reicht das, bei manchen nicht.
00:30:43: Und da halt so schauen, ich glaube, einfach darauf zu achten,
00:30:47: was verarbeite ich damit?
00:30:49: Weil es fühlt sich immer so persönlich an. Also diesen kleinen,
00:30:52: geschlossenen ChatGPT-Raum, seine Chats und so weiter. und da ist ja alles so meins.
00:30:56: Aber ich glaube, man sollte sich so ein bisschen daran denken,
00:31:01: würde ich das, was ich in ChatGPT jetzt verarbeite,
00:31:05: beispielsweise auch bei Facebook oder Linkedin posten, wäre das dann was,
00:31:08: wo ich ordentlich Probleme kriegen würde, weil es sensibel ist,
00:31:11: weil die Person das vielleicht nicht wollen würde, wo irgendwie die Daten drin sind.
00:31:15: Und das so ein bisschen mitzudenken, ist, glaube ich, total wichtig.
00:31:19: Danke für den Hinweis. Ich finde, das ist auch ein guter Vergleich.
00:31:22: Einfach die Frage, würde ich es bei LinkedIn oder einfach bei Facebook oder
00:31:25: wo auch immer, in der Öffentlichkeit posten oder mich auf dem Marktplatz stellen,
00:31:29: um analog zu bleiben und das Ganze in die Welt posaunen.
00:31:32: Ich glaube, was vielleicht an der Stelle auch noch wichtig ist,
00:31:36: achtet nicht nur darauf, was ihr eingebt, sondern auch, was rauskommt.
00:31:39: Also nicht immer alles für bare Münze nehmen, sondern ich glaube,
00:31:42: das ist eingangs gesagt, KI kann Anregen zum Kritischen hinterfragen.
00:31:46: Und genau das sollten wir, denke ich, immer tun, auch wenn man sich sein Tech-Stack
00:31:50: aufbaut mit verschiedenen KI-Tools.
00:31:52: Das ist nicht Sinn der Übung, alles so zu automatisieren, dass wir als Menschen
00:31:56: nichts mehr zu tun haben und die KI-Chatbots jetzt oder KI-Agenten,
00:32:01: die mehr und mehr kommen, für uns arbeiten,
00:32:04: sondern es hilft uns natürlich Denkaufgaben zu lösen,
00:32:07: in Kreativprozessen vielleicht schneller zu sein,
00:32:10: vielleicht neuen Input zu generieren, aber bitte, bitte hinterfragt es.
00:32:14: Und gerade wenn es um klassisches Wissen geht, das brauchen wir nach wie vor.
00:32:20: KI soll bitte nicht dafür sorgen, dass wir einfach nur denkfaul werden,
00:32:23: weil ich glaube, das wäre genau der falsche Weg. Ich finde das aber auch schwierig.
00:32:27: Ich persönlich merke das bei mir, dass ich manchmal zu schnell zu einer KI-Assistenz
00:32:34: gehe und sage, ich source so ein bisschen den Denkprozess aus.
00:32:38: Merkst du das bei dir auch?
00:32:40: Also es kommt ein bisschen drauf an. Jetzt mit Meisterprompter probieren wir
00:32:44: ja auch viel aus mit KI-Tools.
00:32:46: Das heißt, da ist auch immer die Verlockung, hey, ich teste das jetzt nochmal.
00:32:50: Ich muss ganz ehrlich sagen, beispielsweise als Journalistin,
00:32:53: alles, wo ich Texte schreibe, Überschriften, die kommen von mir.
00:32:58: Dass ich mal irgendwie verschiedene Tools anhaue für Überschriften,
00:33:02: einfach um zu gucken, hey, wie würden die das machen?
00:33:05: Das ist bei mir noch eine Neugier. Also ich würde sagen, vielleicht bin ich
00:33:08: einfach sehr misstrauisch.
00:33:10: Ich nutze die Tools, aber ich würde nicht sagen, dass es mich denkfauler macht.
00:33:16: Ich würde eher sagen, manchmal kostet es mehr Zeit, weil ich ja wo was eingebe
00:33:20: und das dann nochmal überprüfe und dementsprechend denkfaulich, kritischer.
00:33:26: Muss ich ehrlich sagen, bisher toi, toi, toi.
00:33:29: Wie ist es bei dir? Ich glaube, das ist, finde ich, ein Risiko von dieser Einfachheit der Systeme.
00:33:36: Du kriegst halt eine Antwort und gerade jetzt auch mit den AI-Overviews bei
00:33:39: Google, die KI-Antworten, die wir jetzt ausspucken, da kriegst du halt sehr
00:33:44: schnell den Shortcut gelegt.
00:33:46: Und ich glaube, dieses kritische Hinterfragen ist total wichtig und deswegen
00:33:51: nutze ich auch bei Sachen, wo ich sage, das ist mir gerade wichtig,
00:33:54: dass ich da irgendeinen Fakt widerlegen kann oder beziehungsweise beweisen kann.
00:33:57: Auch sowas wie Perplexity beispielsweise, die mir ganz bewusst zu bestimmten
00:34:00: Bereichen die Quellen angeben.
00:34:03: Ich muss aber auch sagen, ich habe so ein bisschen in dieser Content-Marketing-Welt
00:34:08: das Vertrauen so ein bisschen verloren in Content auch von Webseiten.
00:34:13: Das heißt, ich habe halt lange im SEO gearbeitet und ganz oft war das halt nicht
00:34:17: bei allen Themen, auch nicht bei allen Teams, kann man nicht verallgemeinern, ganz klar.
00:34:19: Aber ganz oft war es so, hier ist ein Keyword, das hat das Suchvolumen,
00:34:24: das schreiben die ersten vier Seiten auf Seite 1, zusammenfassen,
00:34:28: besser machen, ein bisschen besser On-Page-Optimierung und dann ranken wir.
00:34:31: Also ich habe auch so ein bisschen das Vertrauen in die Content-Ehrlichkeit
00:34:34: auch von Webseiten verloren, weil du, ich meine, das siehst du ja wahrscheinlich selber auch,
00:34:38: es ist ja so viele Webseiten, die irgendwie gar keinen Trust haben,
00:34:42: irgendwie über irgendein Thema schreiben, wo du sagst, okay,
00:34:45: gut, ist jetzt irgendwie ein Fließtext, könnte auch von KI kommen oder nicht.
00:34:48: Und das finde ich halt schön, dass dieses Hinterfragen auch immer schwieriger
00:34:52: wird, weil man auch nicht mehr weiß, ob die Quelle vielleicht auch einfach KI
00:34:55: ist, die man sich anschaut.
00:34:57: Ja, nee, klar, hast du vollkommen recht. Das ist ja auch eine LinkedIn-Debatte,
00:35:01: was ist ja eigentlich noch von echten Menschen geschrieben.
00:35:03: Für mich persönlich ist das immer wie so ein Impuls, zu sagen,
00:35:07: hey, Leute, lasst uns wirklich guten Content machen, menschlichen Content,
00:35:12: von mir aus mit KI-Unterstützung.
00:35:13: Weil es kann ja auch helfen, Sprache besser zu machen. Aber ich sehe da immer
00:35:17: einen Auftrag, der natürlich Arbeit bedeutet, aber den man auch nutzen kann.
00:35:21: Das ist für mich die perfekte Überleitung zu unserem letzten Bock,
00:35:24: nämlich den KI-Agenten.
00:35:25: Weil die sollen ja auch dafür sorgen, dass wir eben schneller und teilweise
00:35:28: auch bequemer arbeiten können.
00:35:30: Lass uns doch einmal definieren, was ist jetzt der Unterschied zwischen einem
00:35:32: KI-Tool und einem KI-Agenten?
00:35:34: Ich habe so ein bisschen das Gefühl, dass dieser Name oder dieses Framing KI-Agent
00:35:40: immer mehr verschwimmt.
00:35:42: Ich glaube, es gibt ganz viele verschiedene Definitionen davon und ich weiß
00:35:47: gar nicht, ob es irgendeine 100% richtige gibt.
00:35:49: Für mich ist ein KI-Agent wirklich ein System, was mit einer KI,
00:35:55: also einem Sprachmodell in der Regel arbeitet, was eine Art Gedächtnis hat,
00:35:59: was Tools bedienen kann.
00:36:02: Das kann eine Websuche sein, das kann ein File-System sein, das kann irgendwie
00:36:06: eine Bildgenerierung sein und in gewisser Art auch autonome Entscheidungen treffen kann.
00:36:12: Also in dem Fall, was ich gerade gesagt habe, oder als Tool könnten wir nehmen
00:36:15: Google Kalender, Google Mail, Google Docs.
00:36:18: Und das Tool oder der Agent könnte selber entscheiden, für den File,
00:36:21: den er bekommen hat, um das Ziel zu erreichen, welches Tool nutze ich denn,
00:36:25: nutze ich eins, nutze ich zwei, nutze ich drei, Das ist für mich ein Agent,
00:36:28: der wirklich eine gewisse Art und Weise autonom entscheiden kann.
00:36:33: Man merkt aber auch, dass je nachdem, mit wem man spricht, dadurch,
00:36:36: dass halt überall auch Agent draufsteht, mittlerweile in jeder Headline,
00:36:39: in jedem Artikel irgendwie, dass auch sowas wie Custom-GPTs,
00:36:42: über die wir gesprochen haben, mittlerweile auch von Leuten als Agent definiert werden.
00:36:46: Ich glaube, das verschwimmt halt auch so ein bisschen. Man kann auch sagen.
00:36:49: Deep Research beispielsweise von Perplexity oder von JGPT ist eigentlich auch
00:36:53: schon in gewisser Art ein Agent oder agentisch.
00:36:55: Das heißt, du merkst, es verschwimmt immer mehr, aber für mich ist das ein automatisches
00:37:01: KI-System mit einer gewissen autonomen Handhabe.
00:37:05: Du kommst aus dem Marketing, dass da früher wurde überall KI dann plötzlich
00:37:09: drauf gebatscht und jetzt sind es dann eher die KI-Agenten, weil das jetzt eher
00:37:12: so der State of the Art ist.
00:37:14: Aber wie ist denn das aus deiner Sicht? Hast du da vielleicht auch schon einen
00:37:17: Tool-Tipp, wo du wirklich sagst, für Unternehmen diese KI-Agenten,
00:37:21: schaut euch die mal an, testet die mal?
00:37:23: Ich bin der Meinung, und das anders angefangen, ich merke bei der Arbeit mit Teams, dass viele so am,
00:37:33: weil Agenten sollen ja Prozesse automatisieren, sollen ja Ziele erreichen,
00:37:36: selbstständig, dass viele Unternehmen noch nicht mal in dieser Prozessautomatisierungsschiene
00:37:41: oder Denkweise sind, dass sie beispielsweise kein Make oder N8N oder Zapier
00:37:45: nutzen, was so klassische Automatisierungstools sind.
00:37:48: Und dass hier oft dieser Schritt zum, ich habe keine Ahnung,
00:37:52: was ich tue an Prozessen, weiß nicht, ob die gut sind, aber ich lasse jetzt
00:37:55: mal so einen Agentenautonom da irgendwie handhaben, da bin ich immer so ein bisschen skeptisch.
00:37:59: Das heißt, ich finde so im ersten Schritt, wenn man sagt, das ist irgendwie,
00:38:01: ich möchte meine Prozesse besser machen, sollte man, finde ich, erstmal schauen,
00:38:05: kann ich das über eine simple Automatisierung lösen, wo ich gar keine,
00:38:09: wo die KI gar nicht autonom entscheiden soll, weil ich genau weiß,
00:38:12: wie der Prozess abläuft und wie ich ihn haben will. Und,
00:38:16: Ich finde, an Tools kann man sich genau die gerade auch genannten Automatisierungsplattformen
00:38:23: oder iPass-Lösungen anschauen, wie N8N oder Make, die mittlerweile auch agentische Module haben.
00:38:29: Das heißt, hier kann man auch wirklich diesen Agenten oder Agenten selber bauen.
00:38:32: Da empfehle ich tatsächlich immer N8N ein bisschen mehr, weil A,
00:38:36: Made in Germany, sehr, sehr cool.
00:38:38: Es gibt eine Open-Source-Lösung, das heißt, man kann sie auch auf einem eigenen
00:38:41: Rechner, auf einem eigenen Server installieren. Das heißt, Datenschutz ist auch
00:38:43: nochmal ein cooles Thema.
00:38:44: Und die haben eine sehr starke Open-Source und eine sehr starke Community.
00:38:48: Das heißt, auch viele coole Ideen werden da relativ schnell umgesetzt.
00:38:51: Und es kommt, wie gesagt, aus Deutschland, was auch mal ganz schön ist.
00:38:54: Und ich glaube, damit kann man schon erste gute Erfahrungen machen,
00:38:56: um so Agenten wirklich auch testen und zu bauen.
00:39:00: Ich glaube aber, dass dieses Agententhema so von hinten raus immer mehr kommt.
00:39:06: Und ich glaube, wenn wir so anschauen, was die großen Hyperscaler bauen,
00:39:10: so ein Google mit Gemini beispielsweise,
00:39:13: wo du dann Gemini hast, der immer besser deinen Kalender pflegen kann,
00:39:16: der auch immer besser auf deine E-Mails reagieren kann, der dann irgendwann
00:39:18: auch aus der E-Mail oder aus der Nachricht direkt den passenden Reminder verschickt
00:39:23: an die Person oder vielleicht noch sagt, hier,
00:39:25: willst du nicht die und die Person aus deinem Kontaktbuch einladen,
00:39:28: habe ich gerade noch gefunden.
00:39:29: In der E-Mail-Historie, war die noch mal in der dritten E-Mail von 20 drin und
00:39:33: ich glaube, so werden agentische,
00:39:35: Systeme immer, ich glaube, immer selbstverständlicher, weil wir merken,
00:39:40: so wird immer bequemer, der Co-Palle von Microsoft macht es ja vor, viele Integrationen,
00:39:45: mit einem Prompt irgendwie 20 Sachen abfragen und ich glaube, wir werden
00:39:48: Es werden genug Leute, auch Agenten, bauen. Ich glaube, die kommen aber auch
00:39:52: da, wo wir sowieso arbeiten. Also was ich wirklich glaube, ist,
00:39:55: dass gerade wir PrivatnutzerInnen von Google und Co.
00:39:58: Quasi über diesen Bequemlichkeitsweg mehr und mehr dazu geführt werden und dass
00:40:02: das ein so schleichender Prozess ist, weil wenn du es hart machst nach dem Motto,
00:40:05: jetzt ist es da, erfährst du in der Regel mehr Ablehnung.
00:40:09: Dementsprechend dieser leichte Übergang, den werden wir in den nächsten ein
00:40:12: bis zwei Jahren, glaube ich, sehr intensiv wiederum erleben.
00:40:15: Und dann ist das genau der Punkt, über den wir vorhin gesprochen haben. Was machen wir daraus?
00:40:20: Sagen wir prima, dann such mir doch einfach nach meinen, was weiß ich was,
00:40:23: Lebensmittelvorlieben und was Lieblingsorten, die perfekten Restaurants raus.
00:40:29: Ich lasse mich quasi vom Agenten führen. Ich hoffe, dass wir da nicht hinkommen,
00:40:33: sondern dass wir es einfach nutzen, um manche Aufgaben zu automatisieren.
00:40:36: Und damit würde ich auch die letzte Frage an dich für diesen Podcast stellen,
00:40:40: nämlich mit welcher Zukunft im Bereich KI-Agenten rechnest du denn in den nächsten
00:40:45: Jahren? Wären wir alle bequem?
00:40:46: Wird ein Unternehmen plötzlich den super KI-Agenten raushauen,
00:40:50: den dann alle nutzen? Was sind deine Predictions?
00:40:55: Gute Frage. Ich glaube, bequem ist immer so negativ. Aber am Ende des Tages ist ja Bequemlichkeit.
00:41:02: Wir verbrauchen weniger Energie, was ja so biologisch irgendein Ziel ist.
00:41:07: Und ich glaube schon, dass wir bequemer werden. Ich habe da immer so ein bisschen
00:41:09: diese dicken Menschen bei Wally im Kopf, die da auf diesen...
00:41:14: Genau, das Bild habe ich auch. Der Disney-Film.
00:41:19: Also gerade mit Robotics und so weiter, ich glaube, das kann ich mir vorstellen,
00:41:23: leider. Was das Thema Agenten angeht, genau, hatten wir darüber gesprochen.
00:41:27: Ich glaube, ich bin auf der Meinung, dass es im Privatbereich immer schleichender
00:41:32: kommt, dass man einfach immer mehr davon ausgeht, dass die KI-Tools das ja können,
00:41:35: weil die Daten sind ja irgendwie da.
00:41:38: Und ich glaube aber trotzdem, dass wirklich diese krass autonomen Agenten,
00:41:44: das braucht noch eine Weile, weil es vielleicht auch nicht unbedingt nur an
00:41:47: den technischen Limitierungen liegt, sondern auch an, also es liegt,
00:41:50: ist immer so negativ, aber auch an uns Menschen.
00:41:53: Weil Beispiel, klar kannst du jetzt einen Social Media Agenten aufsetzen,
00:41:57: der für dich komplett autonom Social Media macht. Das ist kein Thema mehr, kriegt man gut hin.
00:42:02: Will man das als Marke, dass komplett eine KI alle Social-Media-Posts raushaut,
00:42:07: jeden Tag und man nicht mehr weiß, was da passiert? Wahrscheinlich nicht.
00:42:11: Das heißt, wir müssen oder wir werden, das Thema Vertrauen gegenüber der KI
00:42:15: wird sich auch noch entwickeln. In welche Richtung? Mal schauen,
00:42:17: auch je nachdem, was für Skandale so kommen.
00:42:19: Aber ich glaube schon, dass das eine größere Rolle spielt. Aber auch dieses
00:42:22: ganze Thema Prozessautomatisierung mit KI getrieben, da sehe ich gerade noch
00:42:25: bei Marketing-Teams unglaubliche Potenziale und bin immer wieder schockiert,
00:42:28: wie wenig Marketing-Teams das irgendwie zum Einsatz haben.
00:42:31: Also würdest du sagen, so es dauert noch fünf Jahre, bis beispielsweise KI-Agenten
00:42:35: regelmäßig genutzt werden und quasi zum Standard werden. Oder vielleicht auch zehn?
00:42:41: Ich glaube eher fünf. Ich glaube auch gerade im Privathaushalt oder im Privathaushalt,
00:42:45: sag ich mal, im Privatkonsum wird das wahrscheinlich immer einfacher.
00:42:48: OpenAI möchte ja auch immer mehr agentische Systeme bauen.
00:42:51: Und ich glaube, man hat ja auch einen Agent von bis, also so ein Deep Research
00:42:55: ist theoretisch ein Agent, nutzen wir jetzt auch schon.
00:42:58: Und wie krass dann so Agenten werden, ich glaube, das wird nochmal ein anderes
00:43:01: Thema. Ich glaube, das wird immer agentischer.
00:43:03: Die KI-Systeme werden immer besser andere Tools bedienen können und daraus entstehen
00:43:08: dann auch Prozesse. Ich glaube, man sieht jetzt auch gerade,
00:43:10: dass jetzt viele KI-Browser entstehen, das heißt auch KI oder Automatisierung
00:43:14: oder Agenten direkt in deinem Browser drin.
00:43:17: Da bin ich auch gespannt, wie sich das Web einfach verändern wird,
00:43:19: was wir noch selber tun und worauf wir einfach keine Lust haben,
00:43:22: weil die KI das vielleicht sowieso schon besser kann. Auch ein spannendes Thema.
00:43:26: Was wird beispielsweise auch aus SEO und Co.
00:43:29: Unter KI-Einfluss, wenn wir mehr und mehr auch jetzt schon über KI-Chatbots arbeiten?
00:43:34: Und wenn ihr vielleicht auch mal in diesem Podcast so eine richtige Special-Folge
00:43:37: hören wollt zum Thema, wie mache ich meinen eigenen KI-Agenten Step-by-Step,
00:43:41: dann habe ich eine Bitte an euch.
00:43:42: Und zwar kommen wir jetzt zum Ende der Folge. Schreibt doch mal an podcast.at.t3n.de
00:43:47: eine E-Mail mit genau diesem Wunsch oder schreibt es in die Spotify- oder YouTube-Kommentare.
00:43:51: Übrigens, bei YouTube und Spotify gibt es uns auch als Videocast.
00:43:55: Also Jens, ich danke dir vielmals für all deine Tipps, die du heute mitgebracht hast.
00:44:00: Danke dir für deine Einladung. Hat sehr viel Spaß gemacht. Hätten wir,
00:44:03: glaube ich, auch noch länger machen können. Aber sehr, sehr cool.
00:44:06: Danke für die vielen Fragen. Hat sehr viel Spaß gemacht.
00:44:08: Gerne wieder. Vielleicht gibt es ja eine zweite Folge zum Thema KI-Agenten oder
00:44:12: SEO im Marketing und den Veränderungen auf Websites.
00:44:16: Wie gesagt, liebe Zuhörer:innen, schreibt uns doch mal. Würde mich auf jeden Fall freuen.
00:44:21: Und in der nächsten Woche melden wir uns wieder mit einer neuen Folge.
00:44:23: Da geht es um KI und Landwirtschaft. Und zu Gast ist Lorenzo Di Leo.
00:44:28: Er ist Gründer und CEO vom Startup Prefiro.
00:44:31: Ich freue mich auf jeden Fall, wenn ihr wieder einschaltet. Also, auf Wiederhören.
Neuer Kommentar