🔮 MiroFish simuliert die Zukunft mit tausenden Agents |… — Transcript

MiroFish simuliert Zukunftsszenarien mit tausenden KI-Agents. Christoph Magnussen erklärt Funktionsweise, Setup und Nutzen des Open-Source-Tools.

Key Takeaways

  • MiroFish ermöglicht realistische Zukunftssimulationen durch Interaktion vieler KI-Agents.
  • Das Tool ist Open Source und erfordert technisches Verständnis für Installation und Nutzung.
  • Die Qualität der Ergebnisse hängt stark von der Formulierung der Fragen und der bereitgestellten Dokumente ab.
  • MiroFish kombiniert moderne KI-Technologien wie LLMs und Retrieval Augmented Generation.
  • Es bietet neue Möglichkeiten für strategische Planung, Produktentwicklung und Zielgruppenanalyse.

Summary

  • MiroFish ist ein Open-Source-Projekt eines 20-jährigen Studenten der Beijing University zur Zukunftssimulation mit KI.
  • Das Tool nutzt tausende Agents, die miteinander kommunizieren, um auf Basis von Dokumenten und Fragen Zukunftsszenarien zu generieren.
  • Es ist kein einfacher Chatbot, sondern ein komplexes System mit Graph-Rack und Retrieval Augmented Generation.
  • Der YouTube-Kanal von Christoph Magnussen dient als praktischer Anwendungsfall zur Demonstration des Tools.
  • MiroFish erzeugt aus Dokumenten und Prompts eine Ontologie und simuliert Personas, um strategische Fragen zu beantworten.
  • Das Tool ist aktuell hauptsächlich auf Chinesisch, wurde aber von Christoph ins Deutsche übersetzt und angepasst.
  • MiroFish läuft lokal oder mit Anbindung an OpenAI-Modelle, z.B. GPT-4.1 Mini, für die Sprachverarbeitung.
  • Das Projekt ist auf GitHub sehr beliebt und gilt als Trending Project of the Day mit wachsender Community und Funding.
  • Der Nutzer muss sich mit der Installation und Bedienung auseinandersetzen, es ist kein Plug-and-Play-Tool.
  • Das Video zeigt Schritt für Schritt, wie man MiroFish einrichtet, nutzt und welche Potenziale und Grenzen es gibt.

Full Transcript — Download SRT & Markdown

00:00
Speaker A
Stellt euch vor, ihr könnt wie in der Science-Fiction-Serie Black Mirror mit einer KI die Zukunft vorhersagen. Genau das ist mit dem Open-Source-Projekt MiroFish möglich. Das ist ein Projekt von einem 20-jährigen Studenten von der Beijing University, der nicht ganz unbekannt ist.
00:13
Speaker A
Und der hat es geschafft, in 10 Tagen ein Tool zu bauen, mit dem ihr aus einer Kombination von Agents, Graph Rack und eurer Frage die Zukunft simulieren könnt. Mit tausenden von Agents, die dann untereinander sprechen, als wenn es Menschen wären, um eine Antwort zu bekommen. Das kann
00:28
Speaker A
irgendein Thema sein, Strategiethema, PR-Thema, neues Produkt, eine Idee, was auch immer. Und diese tausenden von Agents kommen dann zu einem Ergebnis mit einem Report und ihr könnt nochmal tiefer eintauchen. Ziemlich abgefahren und das ist nicht einfach nur irgendein Chatbot,
00:40
Speaker A
sondern das zeigt die Power, die es momentan gibt, wenn man KI-Tools baut. Wir schauen uns an, wie es funktioniert, wie es aufgesetzt wird, warum es spannend ist, wo die Grenzen sind und vor allem, was ihr für euch lernen könnt, um besser mit KI zu werden mit diesem Tool.
00:53
Speaker A
Das ist MiroFish heute. Es gab zwei gute Gründe für dieses Video. Einmal habt ihr danach gefragt, das ist das Erste.
01:03
Speaker A
Und das Zweite ist, ich habe letztes Jahr mal ein Video aufgenommen, da habe ich euch gezeigt, wie man mithilfe von Deep Research quasi Zielgruppen simulieren kann. Man hat gesagt, hey, ich habe einen Workshop, ich möchte wissen, wer da sitzt, verschiedene Personas.
01:12
Speaker A
Das war etwas, wo ich gesagt habe, okay, damit kann man mit KI arbeiten. Das Ding hier, MiroFish, ist allerdings nochmal ein Level weiter. Was Guo Hangjiang hier gebaut hat, der unter dem Namen Baifu bekannt ist und schon vorher auch Open-Source-Projekte gebaut hat,
01:23
Speaker A
ist sehr schnell auf GitHub zu einem Trending-Project of the Day geworden. Das heißt, es ist die neue Währung in der neuen Welt, wenn man merkt, man kriegt so viele Sterne auf GitHub, dass sehr viele Leute es verwenden.
01:33
Speaker A
Er hat mittlerweile Funding bekommen und hier gibt es eine Seite, ist alles auf Chinesisch natürlich, also nicht die Seite, aber das Tool selber noch auf Chinesisch, wo man das auch sich anschauen kann. Und dann gibt es aber das offizielle
01:43
Speaker A
Repository hier. Und was es macht, könnt ihr euch so vorstellen, ihr formuliert eine Frage, eine beispielsweise strategische Frage für, wie können wir den YouTube-Kanal von Christoph Magnussen weiterentwickeln, das sind die Themen und so weiter.
01:54
Speaker A
Und gebt dann dem Tool auch noch ein Dokument dazu. Und was dann aufgebaut wird, und das gehen wir gleich mal Schritt für Schritt durch, ist quasi eine Simulation von möglichen Usern eures Tools, eures Produkts, eures Kanals, eurer Firma,
02:06
Speaker A
was auch immer ihr voraussagen wollt. Und ihr bekommt am Ende den fertigen Bericht. Das ist das, was MiroFish macht. Und ich habe das eben schon erwähnt, es ist ein Open-Source-Projekt, das bedeutet, ihr könnt selber damit arbeiten. Das heißt aber auch,
02:21
Speaker A
ihr könnt nicht einfach draufklicken und es läuft und fertig, sondern ihr müsst euch ein bisschen damit auseinandersetzen.
02:26
Speaker A
Das finde ich aber wiederum das Gute an den Zeiten momentan. Wir werden so ein bisschen gezwungen, mehr hinter die Kulissen zu schauen und nicht einfach zu sagen, wo ist der Knopf, leg los, ich zahl dafür. Sondern stückweit auch zu schauen, wie benutze ich ein Tool,
02:37
Speaker A
wie verhält sich das Tool, was macht dieses Tool. Weil wir ja schließlich auch mit sehr vielen Daten arbeiten und auch verantwortungsvoll damit umgehen sollten. Es wird vermutlich in Zukunft irgendwann auch ein Web-Service davon geben. Aber ich rede jetzt hier von
02:48
Speaker A
der Variante, die ihr quasi selber bei euch installieren könnt und dann damit arbeitet. Und um euch das jetzt einmal sauber zu zeigen, machen wir einen Case für mich, für den YouTube-Kanal, an dem man das ganz gut verfolgen kann. Und wenn ihr
02:57
Speaker A
das auf GitHub seht oder selber installiert habt, dann sieht das so aus. Das heißt, ihr seht hier sehr viel Chinesisch natürlich drin, weil die App auf Chinesisch geschrieben ist.
03:03
Speaker A
Deswegen habe ich einmal den Zwischenschritt gemacht und das Ganze in unserem Blackboat-Look zum Spaß hier zum Zeigen umgebaut. Und vor allem auf Deutsch übersetzt, also auch mit den ganzen Anwendungsbefehlen in der App, damit ich nachvollziehen kann, was macht die App an der Stelle. Das habe ich mit Codex gemacht im Hintergrund,
03:17
Speaker A
damit ihr jetzt auch hier sehen könnt, was passiert quasi. Ansonsten würde man hier oben das sehen, was man bei MiroFish sieht. Hier unten sieht das eigentlich fast genauso aus wie das, was ihr auch kennt, wenn ihr es installiert. Also der Case, den ich mit euch durchgehen möchte,
03:28
Speaker A
damit ihr nachvollziehen könnt, was jetzt hier passiert ist für den YouTube-Kanal. Das heißt, es ist ein echter Case. Ich habe zwei Agents loslaufen lassen. Die haben eine tiefe Recherche zu YouTube gemacht, die haben in die Kommentare geschaut, die ihr so schreibt.
03:39
Speaker A
Und daraus haben wir einen Prompt formuliert. Ihr braucht nämlich zwei Sachen. Ihr braucht Dokumente, aus denen dann eine quasi simulierte Welt erstellt wird und die Personas.
03:47
Speaker A
Das passiert gleich und dann erkläre ich, wie es funktioniert. Und ihr braucht einen Prompt mit euren Fragen, die ihr habt. Also das, was ihr simulieren wollt.
03:54
Speaker A
Und denkt an die Regel, je besser die Frage, desto besser nachher auch das Ergebnis.
03:58
Speaker A
Wenn die App jetzt läuft, könnt ihr wirklich einfach dieses Briefing, was ich jetzt quasi habe mir in einer Markdown-Datei zusammenfassen lassen, hier reinstellen. Ihr könnt aber auch mehr Dokumente reinladen als nur das.
04:06
Speaker A
Ich habe das jetzt hier als quasi Text- oder Markdown-File. Den Prompt habe ich hier.
04:11
Speaker A
Also ganz grob haben wir quasi erarbeitet als Prompt, den haben wir auch mit KI erarbeitet.
04:16
Speaker A
Nämlich die tiefe Recherche zum Kanal. Und dann haben wir Perplexity gefragt und gesagt, hey, gibt es Best Practices für MiroFish-Prompts? Hilft?
04:23
Speaker A
Dann haben wir diesen Prompt bekommen. Christoph Magnussen, Founder und CEO von Blackboat, langjähriger DACH-Creator zum Thema KI, Future of Work.
04:28
Speaker A
Veröffentlicht YouTube-Videos, hat ca. 129.000 Subscriber, treue Community. Möchte deutlich mehr Reichweite, neue Zielgruppen erschließen, selbsttragende Community aufbauen.
04:37
Speaker A
Jetzt hat Perplexity für MiroFish Fragen formuliert. Ich finde die Fragen insgesamt sehr stimmig. Und das Dokument, was MiroFish dazu bekommt, sind quasi Statistiken, echte Statistiken zum YouTube-Kanal.
04:48
Speaker A
Und jetzt klicken wir auf Beratungslauf vorbereiten.
04:55
Speaker A
Und jetzt kommt der erste Schritt. Jetzt kommt hier oben die Ontologie-Erzeugung.
05:02
Speaker A
Das bedeutet, das Large-Language-Model, was dahinter läuft, das ist verbunden jetzt in diesem Fall mit OpenAI. Also das heißt, es läuft ein starkes Modell.
05:18
Speaker A
MiroFish selber empfiehlt, glaube ich, ein Modell von Quen, also ein lokales Modell. Das ist dann deutlich günstiger, wenn es lokal läuft. Ich habe es jetzt mit unserem OpenAI-Account verbunden und dem Modell GPT 4.1 Mini, glaube ich. Nicht ganz so teuer wie 4.0. Das wäre dann deutlich, deutlich teurer.
05:31
Speaker A
Und jetzt ist schon quasi der erste Schritt durch. Das heißt, das LLM hat sich angeguckt, worum geht es hier, zieht quasi die Infos aus dem Dokument. Und jetzt kommt etwas, was einige von euch nicht kennen.
05:39
Speaker A
Jetzt wird ein Graph-Rack aufgebaut. Rack steht für Retrieval Augmented Generation. Das heißt, ihr habt ein zweites Tool dahinter.
05:44
Speaker A
In diesem Fall ist das ZappCloud. Geht jetzt mit nichts anderem als dem gerade. Braucht ihr einen zweiten Account.
05:53
Speaker A
Was das aber macht, ist nicht einfach nur, ich nehme das Dokument und schau mal. Sondern ein Graph-Rack erzeugt Beziehungen zu den verschiedenen Elementen. Und ihr seht das jetzt hier.
06:03
Speaker A
Hier wird jetzt gerade Christoph, der ownt quasi den YouTube-Kanal, hat die Rolle Tech-Unternehmer. Christoph hat die Rolle, ist Speaker. Christoph arbeitet für Blackboat.
06:19
Speaker A
Das heißt, ein Graph-Rack stellt aus dem Dokument und aus dem Prompt Beziehungen her. Und diese Beziehungen werden da
06:28
Speaker A
Und mir ist es besonders wichtig, wenn ich mit Anwendungen arbeite, dass ich lesen kann, was passiert. Also wo geht welcher Schritt hin. Weil wir haben, wenn unsere Kunden fragen, könnt ihr das für uns machen?
06:38
Speaker A
Natürlich eine Verpflichtung auch zu sagen, wait a minute, ja geht, aber ihr müsst folgendes wissen.
06:42
Speaker A
Und wenn hier wirklich nur Mandarinzeichen, chinesische Zeichen sind, dann ist das schwierig nachzuvollziehen. So ist es natürlich deutlich leichter.
06:50
Speaker A
Und so sehe ich dann auch, gibt es irgendwelche Fehler beispielsweise beim Durchlauf. Pro-User-Trick, das ist jetzt eine Anwendung, die bei euch läuft. Und ihr könnt jetzt ohne Probleme einen Coding Agent wie Claude Code oder Codex bitten, reinzuschauen, wie diese Anwendung gerade
07:05
Speaker A
läuft. Das heißt, der kann jetzt sehen, weil hier die Befehle durchlaufen, das läuft gerade.
07:08
Speaker A
Und dadurch kann er erklären, was passiert hier, was macht die Anwendung und so weiter.
07:11
Speaker A
Ist relativ einfach möglich und super hilfreich. Dann hat man wie einen Coach an der Seite.
07:15
Speaker A
Genau, sagt, das ist noch nicht der eigentliche Simulationsrun, müssen wir sauber trennen. Er macht gerade den Aufbau. Und jetzt erklärt er mir quasi, was wurde gemacht.
07:22
Speaker A
Das heißt, ich will euch nur kurz zeigen, ihr habt mit diesen Agents wie ein Profi an der Seite. Dadurch, dass die Computer Code ja lesen und verstehen können, was da passiert. Ich habe ihn jetzt nur auf den Ordner verwiesen.
07:34
Speaker A
Ihr könnt ihm aber auch sagen, wenn ihr quasi den Agent benutzt habt, um dieses Programm zum Laufen zu bringen. Beobachte bitte die ganze Zeit diesen Run. Das kostet zwar ein paar Tokens, aber es ist natürlich absolut priceless, jemanden zu haben, der insgesamt mit draufschaut, was da passiert.
07:47
Speaker A
So, jetzt sind wir schon bei 75% vom Graph-Rack. Das heißt, er hat jetzt die 115 verschiedenen Knotenpunkte. Ihr seht das schon hier, die Auswahl der Themen.
07:57
Speaker A
Lange Videos, kurze Videos, Shorts, Blackboat reingeparkt, KI-Beratung. Finde ich irgendwie schon mal vernünftig, männlich, weiblich. Das ist auch natürlich ein Thema bei den Zielgruppen.
08:07
Speaker A
Er hat auch die verschiedenen Beziehungskanten, also wie hängt das irgendwie zusammen. Und damit bekommt ihr dann die verschiedenen Entity-Typen. Ihr habt Creator, Influencer, Personen.
08:16
Speaker A
Und daraus werden gleich als nächstes dann quasi die Agents erzeugt, die dann Gespräche führen. Schon geil, ne? Also wie er das alles so miteinander zusammenbringt. Das baut einfach einer in zehn Tagen selber.
08:29
Speaker A
Das ist eigentlich die Magic. Graph-Aufbau ist abgeschlossen. Das hat jetzt ein paar Minuten gedauert tatsächlich.
08:36
Speaker A
Und jetzt geht es darum, diesen Graph in die Umgebung zu packen. Also jetzt werden dann daraus die Agents eingerichtet. Das ist dann der nächste Schritt, Umgebung einrichten.
08:47
Speaker A
Da klicke ich jetzt drauf. Und jetzt werden die Personas erzeugt. Jetzt wird quasi, und das steht hier auch, der Kontext mit dem Wissensgraph verbunden.
08:57
Speaker A
Das heißt, hier werden jetzt die Agenten erstellt. Ihr seht, wie die Zahlen hochgehen. Das bedeutet, hier gibt es Blackboat als Agent.
09:03
Speaker A
Hier gibt es den Berufseinsteiger, unterstrich 941. Hier gibt es den Nachwuchssegment 138. Hier gibt es Christoph 509.
09:11
Speaker A
Das heißt, hier werden jetzt aus den Informationen Agenten erzeugt, die dann miteinander nachher interagieren können. Das ist jetzt die Zusammenarbeit zwischen den Informationen, die im Graph-Rack stehen, die strukturiert aus dem Dokument aufgearbeitet wurden und dem, was ein LLM leistet. Und jetzt merkt ihr schon, wenn das LLM in der Qualität natürlich deutlich besser
09:31
Speaker A
ist und 4.1, also GPT 4.1 Mini, ist nicht so stark wie 4.0. 4.0 kostet aber einfach das Zehnfache.
09:39
Speaker A
Also so ein Run hier, den wir jetzt gerade machen, der wird vermutlich bei 30 bis 40 Euro rauskommen. Wenn ich das mit 4.0 machen würde, wahrscheinlich eher so Richtung 250, 300 Euro, Pi mal Daumen. Je nachdem, wie lange man den laufen lässt.
09:53
Speaker A
Jetzt sind wir hier fertig. Wir haben die Simulationsräume. Der empfiehlt jetzt eine Simulation von 96 Stunden.
09:58
Speaker A
Das ist sehr lang. Das machen wir ein bisschen kürzer für das YouTube-Video hier. Insgesamt dauert es dann 60 Minuten, hier diese 96 Stunden zu simulieren.
10:06
Speaker A
Und empfiehlt dann mehrere Runden. Hier sind die quasi Konfigurationen der einzelnen Agenten, die er hat. Wann sind die aktiv? Wer ist das? Was machen die? Wie aktiv sind die?
10:16
Speaker A
Und was jetzt wichtig zu wissen ist, es gibt zwei. Das ist der entscheidende Teil. Es gibt zwei Arten von Empfehlungsalgorithmen hier.
10:23
Speaker A
Was Guo gemacht hat, ist, er hat einmal quasi Twitter simuliert. Ich habe das hier auf Deutsch hintergeschrieben als schneller Signalfeed. Das heißt, so schnelle, kurze Chatgespräche wie auf Twitter eben. Und Reddit, also vertiefende Thementhreads.
10:37
Speaker A
Das heißt, wo Leute wirklich lange, umfassende Themen machen und besprechen. Das sind nur Simulationen. Das ist nicht die echte API auf X oder auf Reddit, sondern das sind nur Arten von Gesprächen.
10:45
Speaker A
So kann man sich das vorstellen. Jetzt bekommt ihr eine Begründung, warum die Zeitkonfiguration, die Simulation nutzt einen typischen Dacharbeitstag mit Fokus auf B2B, Führungskräftekommunikation, die wichtigsten Interaktionszeitungen liegen vor allem am Morgen und am Nachmittag, wenn Führungskräfte und Unternehmer aktiv sind. Die Simulation erstreckt sich über vier Tage,
11:03
Speaker A
um initiale Reaktion, Diskussionsentwicklung und erste Adoptionseffekte angemessen abzubilden. Die Agentenzahl pro Stunde variiert, sowohl intensive Phasen mit hoher Communityaktivität als auch ruhigere Phasen. Ereigniskonfiguration, die Simulation fokussiert sich auf die kritischen Erfolgsfaktoren für das Wachstum, Positionierung des Kanals. Das ist ziemlich gut.
11:20
Speaker A
Also das ist Marktforschungslogik, wo man sagt, strong. Wurde aber gesteuert durch euren, also jetzt hier meinen, initialen Prompt. Die Diskussion entwickelt sich von einer Analyse der aktuellen Format-Performance und Zielgruppen-Resonanz hin zu einer strategischen Erarbeitung neuer Inhalte und Formate, jüngere Zielgruppen, internationale Nutzer parallel.
11:37
Speaker A
Initial Topics haben wir hier. Aktivierungssequenzen, das sind quasi Fragen, die reinkommen, die besprochen werden. Nachwuchssegment, Leadership.
11:45
Speaker A
Und jetzt, damit ist quasi die Einrichtung abgeschlossen. Da sind wir drin. Die Simulationsumgebung ist bereit.
11:51
Speaker A
Die Simulation kann gestartet werden. Und was wir noch machen können, und das hat eine Auswirkung auf den Preis, ist, wir können hier sagen, benutzerdefinierte Simulationsrunden. Wir hatten hier, wenn ich das wegklicke, 96 Runden für den ersten Lauf.
12:03
Speaker A
Habe ich jetzt händisch quasi in meiner App dazu geschrieben, empfehlen wir den benutzerdefinierten Modus mit weniger Runden, um zu prüfen, damit es nicht so teuer wird, wenn wir das intern verwenden. 100 Agenten brauchen ca. eine Stunde.
12:13
Speaker A
Wenn ich jetzt hier also benutzerdefiniert klicke und sage, wir machen die Hälfte, machen wir eine halbe Stunde. Oder wir machen halt nur, weiß ich nicht, 25 Runden. Dann sind wir wahrscheinlich in der Viertelstunde fertig und können dieses YouTube-Video fertig drehen.
12:28
Speaker A
Okay, dann Simulation starten, sagte 4 Runden, Arbeitsentwurf 24 Runden, volle Simulation, jetzt die 25, die wir gesagt haben, das müsste eine Viertelstunde sein. Das ist etwas, das habe ich eingebaut. Das war nicht ein Mirofisch, ich habe es so gebaut,
12:41
Speaker A
dass wenn bei uns jemand damit testen will, dass wir nicht immer gleich 100 Runden rausblasen, sondern sagen, schnell einmal mit 4 Runden testen und fertig ist.
12:48
Speaker A
Und wir machen jetzt mal die 25 Runden und starten die Simulation. Und jetzt beginnen die Agents, die speziell mit meinen Themen trainiert wurden, miteinander zu kommunizieren und simulieren die Realität. Cool.
13:01
Speaker A
Ja, nun sitzen wir hier und warten. Ja. Da hast du hier den Twitter-Signal für den Reddit-Feed.
13:07
Speaker A
Okay, und der simuliert sozusagen? Als wenn die untereinander quatschen, Kommentare geben, Ideen sammeln. Ja, als wenn es in Reddit in einem Forum wäre oder in X. Und wenn du natürlich hier sagst, 100 Runden, dann stehen hier halt, ich weiß nicht, 1000. Und dann muss man gucken,
13:26
Speaker A
wenn du mit einem stärkeren Modell arbeitest, halt andere Ergebnisse auch. So, während wir hier auf die Graph-Erstellung warten und der Report noch erzeugt wird, gibt es einmal hier den Hinweis auf unsere Summer School, die AR Summer School, die ist dazu da,
13:38
Speaker A
damit ihr in 4 Wochen, wenn andere am Strand liegen, auch am Strand liegen könnt. Aber ihr macht dabei etwas Sinnvolles, ihr nehmt den Rechner mit und macht Sessions mit uns zusammen, wo es darum geht, wirklich schrittweise zu verstehen, in den 4 Wochen, mit über
13:48
Speaker A
12 verschiedenen Sessions, reinzukommen in die verschiedenen Themen, die es braucht, absoluter Pro zu werden mit Agents, bis hin auch zu, wie funktioniert eigentlich ein Agent Harness, was kann ich mit Cloud Code machen, was ist der Unterschied zu einem Chatbot, wie arbeite
13:59
Speaker A
ich damit? Das macht die AR Summer School, findet ihr auf academy.blackboat.com. Da könnt ihr euch dann direkt für die Summer School bewerben. So, wir sind fertig, jetzt wurde diskutiert.
14:14
Speaker A
Jetzt klicke ich hier oben auf Report erzeugen und bin dann schon beim 4. Schritt, nämlich dem Gesamtreport, was hierbei rauskommt. Hier ist jetzt der fertige Report und denkt einfach dran, das waren jetzt 25 Runden, das war jetzt eine Viertelstunde. Die Qualität hängt dann auch sehr stark vom Modell ab.
14:29
Speaker A
Wir sind jetzt hier zwischendurch in aufgebrauchte Tokens gelaufen, sozusagen, die Kreditkarte war quasi leer. Und ihr seht schon, das kann halt auch richtig viel Geld kosten. Aber es kann natürlich auch krasse Antworten auf Fragen geben.
14:40
Speaker A
Was ihr machen könnt, hier rechts könnt ihr zur tiefen Interaktion gehen. Das heißt, ihr könnt jetzt mit den Agents, die geschrieben haben, chatten und sagen, wie wäre ein Video zum KI-Tool für Zukunftsforschung MiroFish? So, und ihr könnt dann quasi den Report befragen.
15:05
Speaker A
Ihr könnt aber auch mit den Agents gezielt chatten und sozusagen reingucken in Details. Hier könnt ihr sagen, wer sind die Chat-Dealer, also mit wem wollt ihr schreiben, wen wollt ihr befragen von denen, die hier sind. Das ist jetzt Schritt 5 von 5,
15:17
Speaker A
das ist die tiefen Interaktion und das sind jetzt die Schritte, die quasi MiroFish für euch ausgeführt hat. So, und wenn wir jetzt mal so reinklicken, der Report ist gegliedert in Reaktionen der bestehenden Community auf neue Formate und Inhalte.
15:30
Speaker A
Ah ja, guck, für Developer-nahe Zielgruppen und jüngere KI-Adressee zeigen sich Barrieren. Die Inhalte werden oft als zu allgemein und nicht technisch genug wahrgenommen. Ist eine Diskussion hier im Team.
15:39
Speaker A
Ich würde gerne tiefer reintauchen, aber kann ich mir gut vorstellen. Entwickler wünschen sich mehr technische Tiefe durch Hands-on-Coding-Sessions. Hatten wir auch gute Erfahrungen mit.
15:47
Speaker A
Könnte ein komplett zweites Format sein, was wir wöchentlich zusätzlich machen. Shorts bringen hohe Reichweite, aber eher Reichweiten-Einstiegskanäle, während längere Formate wie Keynotes für die Bindung da sind. Jo, macht Sinn.
15:59
Speaker A
Abonnenten und Empfehlungen trotz KI-Interesse. Inhaltliche Tiefe und technische Ausrichtung, also deutlich tiefer rein. Fehlende Community-Mechaniken, ja, das stimmt.
16:06
Speaker A
Wir lesen zwar jedes Kommentar, wir machen viel, aber wir können da viel systematischer werden. Konkurrenz- und Alternativquellen-Nutzer vergleichen den Kanal oft mit englischsprachigen Creatoren, die schneller berichten. Das stimmt, wir machen es immer, ich teste immer erst mal länger und komme dann später.
16:17
Speaker A
Manchmal denke ich auch, wir müssen heute was machen, aber es ist ein valider Punkt. Dann kommen potenziale Mechaniken. Dann haben wir hier noch empfohlene Wachstumsstrategie, also konkrete Handlungsschritte.
16:26
Speaker A
Und das ist jetzt etwas, das müssen wir uns im Team angucken. Da gibt es ja kein richtig oder falsch. Aber ihr seht schon, das ist sehr nützlich.
16:32
Speaker A
Und das ist etwas, das hat man früher mit einer Agentur gemacht oder mit einem Beraterspezial gemacht. Und die gab es lange Zeit gar nicht für das Thema. Und so habt ihr mit kalkulierbaren Kosten wirklich, wirklich ein starkes Tool in der Hand, mit dem das geht.
16:50
Speaker A
So, und was jetzt im Hintergrund passiert, das könnt ihr euch so vorstellen, vier Layer. Ihr habt halt quasi die Modellschicht, also die LLM-Schicht. Und das ist dann quasi das, was OpenAI macht, Voranalyse und so weiter.
17:01
Speaker A
Dann habt ihr den Schicht mit der Zapp-Cloud. Das ist wie so eine Memory-Schicht, wo alles gespeichert wird, was die Agenten halt brauchen in der Zeit. Das ist gar nicht so unkompliziert.
17:09
Speaker A
Dann habt ihr das sogenannte Oasis-Framework. Das ist eigentlich ein Open-Source-Agent-Engine. Das kann theoretisch bis zu einer Million Agents miteinander interagieren lassen.
17:19
Speaker A
Und ganz oben habt ihr quasi den Knowledge-Graph-Rack. Das heißt, aus dem, was ihr reingegeben habt, die Verknüpfung der verschiedenen Punkte. Und zwar so, wie steht es in Verbindung? Ihr habt am Bericht ja gesehen, dass rauskommt, hey, Christoph Magnussen als Creator-Marke müsste entweder
17:35
Speaker A
konsequenter mit Blackboat verknüpft werden oder konsequenter alleine gestellt werden. Das heißt, das Graph-Rack versteht die Beziehung, die dazwischen steht. Und das macht ein LLM nicht per se. Man braucht genau diese verschiedenen Layer dafür, das zu tun.
17:48
Speaker A
Und was Guan hier gebaut hat, muss man schon sagen, ist echt stark. Und mich beeindruckt, dass das in zehn Tagen überhaupt möglich ist. Das wirklich Beeindruckende ist, dass in so kurzer Zeit eine solche Idee umgesetzt werden kann und so nützlich dann raus in die Welt geht.
18:02
Speaker A
Das ist gerade das Potenzial, was da liegt. Wenn ihr jetzt noch eine bessere Schritt-für-Schritt-Anleitung wollt, wie man es installiert, ihr habt ja gerade gesehen, Christoph Magnussen erklärt die Sachen manchmal einfach eher im Überblick. Das ist halt meine Stärke, das mache ich.
18:12
Speaker A
Aber ich möchte auch einen Shoutout geben zu einem YouTube-Kollegen von mir, Julian Ivanov. Der macht wirklich gute Videos, auch wenn es darum geht, ich erkläre hier Schritt für Schritt, wie man es installiert. Zeigt euch auch, wie man das vielleicht auf einer virtuellen Maschine aufsetzt oder auch lokal aufsetzt.
18:24
Speaker A
Das finde ich, macht er richtig gut. Und ja, Shoutout an den Kollegen. Insofern, da könnt ihr gucken, da muss ich das nicht extra machen.
18:31
Speaker A
Und ihr könnt auch andere YouTube-Videos anschauen. Ist ja nicht verkehrt. Was heißt das jetzt alles für die Zukunft? Ich habe es gerade schon angedeutet, das eigentlich Krasse ist, dass es jetzt möglich ist, in so kurzer Zeit solche Experimente hier zu machen.
18:44
Speaker A
Also ein Tool zu bauen, mit dem man testen kann, ist das nützlich, kann ich damit etwas Nützliches tun? Simulation der Realität, dafür wurde viel Geld ausgegeben in der Vergangenheit und wird auch immer noch viel Geld ausgeben. Wir sind mir sehr sicher, dass es Firmen gibt,
18:56
Speaker A
die sagen, wir als PR-Agentur oder wir als Marktforschungsunternehmen, sind wir jetzt weg? Nein, glaube ich nicht. Ich glaube, das ist aber ein ergänzendes Tool.
19:04
Speaker A
D.h., ich könnte sogar innerhalb eines Workshops Fragestellungen generieren, diese Fragestellungen simulieren und am selben Tag noch diskutieren. Weil hier haben wir es ja mit Dingen zu tun, die nicht auf die Nachkommastelle genau treffen.
19:17
Speaker A
Es ist nichts für Aktiensimulationen oder exakte Zahlen oder Wahlprognosen. Es ist etwas für Szenarien, strategische Szenarien, qualitative Ergebnisse. Und so würde ich es eher betrachten. D.h., einmal die Stärke dieses Tools und das andere, dass es überhaupt möglich ist, so etwas in so kurzer Zeit zu bauen.
19:32
Speaker A
Das zeigt, wo wir gerade stehen und das finde ich ziemlich spektakulär und sehr motivierend. Jetzt habt ihr lange durchgehalten. Danke fürs Durchhalten, ich hoffe, da war was wieder dabei für euch.
19:41
Speaker A
Wir werden uns diese Ergebnisse anschauen von YouTube und Sachen verbessern, aber wenn ihr jetzt direkt etwas verbessern wollt, dann schreibt es in die Kommentare. Wenn ihr sagt, ich habe eine Frage, die würde ich mir auf jeden Fall fragen,
19:50
Speaker A
schreibt sie rein. Wenn ihr irgendwas nicht verstanden habt, schreibt es rein. Wir freuen uns über die Kommentare und beantworten die natürlich fleißig. Ihr habt gesehen, wie wichtig für uns Community ist. Das ist das, worum wir es machen.
19:58
Speaker A
Deswegen sehen wir uns auch direkt nächste Woche wieder. Denkt daran, das Video zu teilen, denn KI macht zusammen mehr Spaß. Untertitel im Auftrag des ZDF für funk, 2017
Topics:MiroFishKIZukunftssimulationOpen SourceAgentsGraph RackRetrieval Augmented GenerationYouTube-StrategieChristoph MagnussenDeep Research

Frequently Asked Questions

Was ist MiroFish und wofür wird es verwendet?

MiroFish ist ein Open-Source-Tool, das mit tausenden KI-Agents Zukunftsszenarien simuliert. Es wird genutzt, um strategische Fragen zu beantworten und mögliche Entwicklungen vorherzusagen.

Wie funktioniert die Simulation bei MiroFish?

MiroFish nutzt ein Large Language Model in Kombination mit einem Graph-Rack, das Beziehungen zwischen Informationen herstellt. Die Agents kommunizieren miteinander, um auf Basis von Dokumenten und Prompts ein Ergebnis zu generieren.

Ist MiroFish einfach zu bedienen?

Das Tool ist nicht als Plug-and-Play-Lösung konzipiert. Nutzer müssen es selbst installieren und sich mit der Bedienung auseinandersetzen, was technisches Verständnis voraussetzt.

Get More with the Söz AI App

Transcribe recordings, audio files, and YouTube videos — with AI summaries, speaker detection, and unlimited transcriptions.

Or transcribe another YouTube video here →