manche Sätze muss man zweimal lesen. So ging es mir bei der ersten News für diese Woche.
Dir viel Spaß beim Lesen.
Der ehemalige OpenAI Mitgründer Sutskever hat innerhalb von nur drei Monaten eine Milliarde Dollar für sein neues KI-Start-up eingeworben. Mit dem Fokus auf Sicherheit scheint er damit einen Nerv zu treffen.
Quelle: Exclusive: OpenAI co-founder Sutskever's new safety-focused AI startup SSI raises $1 billion
Claude bringt zwei Neuigkeiten für Entwickler. Zum einen wird es mit dem neuen Enterprise Version möglich sein, sein gesamtes GitHub Account mit Claude zu verbinden. Zum anderen stellt Anthropic fertige Codebeispiele für das schnellere Experimentieren bereit.
Quelle: Claude for EnterpriseShopping soll nach dem Willen von Google einfacher und weniger frustrierend werden. So soll es bald die Möglichkeit geben, Kleider mittels KI direkt auf eurem Smartphone anzuprobieren. Ok, nicht euch, sondern einer Reihe von Modeln.
Quelle: Virtually try on dresses with our AI shopping tool
was passiert, wenn man 1.000 KI-Spieler in eine Minecraft Welt entlässt? Sie entwickeln eigene Geschichten und Gesellschaftsstrukturen.
Quelle: Post Introducing Project Sid: the first simulations of 1000+ truly autonomous agents
Innerhalb von YouTube hat Google schon jetzt einige Probleme mit Inhalten, die mittels KI verändert, gestohlen oder gefaked sind. Mithilfe der neuen Tools soll dies sowie das automatisierte Abgreifen von großen Inhalten erschwert werden.
Quelle: YouTube is developing AI detection tools for music and faces, plus creator controls for AI training
Wer selbst Inhalte auf YouTube erstellt, kann einen Blick auf Spotter Studio werfen. Es hilft bei vielen alltäglichen Arbeiten als Content Ersteller. Angefangen beim Brainstorming für neue Ideen bis zur Analyse der Konkurrenz.
Quelle: Spotter launches AI tools to help YouTubers brainstorm video ideas, thumbnails and more
Eine Studie der Stanford Universität legt nahe, dass aktuelle LLMs in der Lage sind, neue Ideen für Romane zu entwickeln. Die so erstellen Ideen übertreffen die Ideen menschlicher Experten.
Quelle: Post Can LLMs Generate Novel Research Ideas?
Eine Studie kommt zu dem Schluss, dass Entwickler mithilfe von KI 26% mehr Aufgaben abschließen als ohne. Gehen wir mal davon aus, das die Qualität sich dadurch nicht verschlechtert hat.
Quelle: Post Can LLMs Generate Novel Research Ideas?
Ein Retrieval-Augmented Generation (RAG) ist im weitesten Sinne eine Datenbank mit Wissen für ein LLM. Gegen die Verwendung einer solchen Datenbank sprechen, die immer größer werden Kontext-Fenster der aktuellen Generation. Eine Studie kommt zu dem Schluss, dass es immer noch einen Sweetspot für eine von beiden Methoden gibt. Noch kommt es, wie so oft, einfach darauf an, was man vorhat.
Quelle: Post In Defense of RAG in the Era of Long-Context Language Models
Wie lustig und unterhaltsam ein Video ist, weiß man meistens erst nach dem Ansehen. Gute Empfehlung ist hier wichtig. Eine KI soll dabei helfen und besonders unterhaltsame Videos finden.
Quelle: Evaluating Environments Using Exploratory Agents
Anthropic hat eine ganze Reihe von Tipps zum richtigen Prompten veröffentlicht. Mit dabei ein Prompt Generator der zumindest einen guten ersten Prompt schreiben soll.
Quelle: Prompt engineering overview
Was für uns meist selbstverständlich ist, müssen wir der KI erst noch beibringen, die eigenen Ergebnisse überprüfen und bei Bedarf verbessern. Diesen Ansatz haben nun Forscher von Googles DeepMinds Abteilung, einem LLM beigebracht. Dadurch werden die Ergebnisse besser und zuverlässiger, was die Arbeit mit Quellen angeht.
Quelle: DeepMind’s GenRM improves LLM accuracy by having models verify their own outputs
Nicht nur uns hilft es, eine Frage zweimal zu lesen. Eine Studie kommt zu dem Schluss, dass eine KI eine bessere Begründung liefert, wenn diese die Frage zweimal liest.
Quelle: Re-Reading Improves Reasoning in Large Language Models
Zweimal lesen, Ergebnisse überprüfen, klingt alles sehr vertraut. Wir stehen beim Thema KI immer noch sehr am Anfang und verstehen immer besser, wie sie arbeiten und wie diese besser werden kann. Bei vielen Dingen gibt es erstaunliche Ähnlichkeiten zu unserem eigenen Verhalten. Ich bin sehr gespannt, was wir in den nächsten Wochen noch alles erfahren werden.
In diesem Sinne bleibt Neugierig und bis zum Nächsten Mal