Meta präsentiert Llama 4: Die nächste Generation multimodaler KI erobert die Bühne
Die rasante Entwicklung künstlicher Intelligenz hat in den letzten Jahren beeindruckende Fortschritte hervorgebracht, wobei insbesondere große Sprachmodelle (LLMs) immer leistungsfähiger und vielseitiger werden. In diesem dynamischen Feld hat Meta AI, die Forschungsabteilung des Technologiegiganten, mit der Ankündigung der Llama 4 Modellfamilie ein bedeutendes Ausrufezeichen gesetzt. Diese neue Generation von KI-Modellen verspricht nicht nur eine verbesserte Leistung in traditionellen Bereichen wie Textgenerierung und Sprachverständnis, sondern etabliert auch native Multimodalität als neuen Standard.1
Meta AI hat sich in der Vergangenheit durch sein Engagement für Open-Source-KI hervorgetan, und die Llama-Modellfamilie ist ein Paradebeispiel für diese Philosophie.3 Mit über 650 Millionen Downloads im Jahr 2024 hat sich Llama schnell zu einem der meistgenutzten Modelle in der KI-Community entwickelt, was Metas Ambitionen unterstreicht, Llama zum Branchenstandard für KI-Anwendungen zu machen.3 Die Einführung von Llama 4 kommt in einer Zeit intensiven Wettbewerbs, in der Unternehmen wie OpenAI und Google ebenfalls kontinuierlich ihre KI-Modelle weiterentwickeln.1
Die Llama 4 Familie umfasst drei Hauptmodelle: Scout , Maverick und Behemoth .1 Scout ist als das effizientere Modell konzipiert, das auf einer einzelnen GPU betrieben werden kann, während Maverick auf Leistung optimiert ist und anspruchsvollere Aufgaben bewältigen soll. Behemoth schließlich ist das Flaggschiffmodell, das derzeit noch trainiert wird und die Grenzen des Machbaren in der KI verschieben soll.1 Dieser Blogbeitrag zielt darauf ab, Ihnen einen umfassenden Überblick über die Llama 4 Modelle zu geben, ihre Fähigkeiten zu analysieren, die öffentliche Resonanz zu untersuchen und die potenziellen Auswirkungen dieser neuen Technologie zu beleuchten.
Die offizielle Vorstellung: Details zu Llama 4 Scout und Maverick
Meta hat die ersten beiden Modelle der Llama 4 Familie, Scout und Maverick, am 5. April 2025 offiziell vorgestellt.5 Diese Modelle sind ab sofort auf Plattformen wie llama.com und Hugging Face verfügbar und werden auch in führende Cloud-Umgebungen wie Amazon SageMaker JumpStart, Amazon Bedrock (in Kürze), Microsoft Azure AI Foundry, Azure Databricks, Google Cloud (Vertex AI), Cloudflare (Workers AI) und Snowflake (Cortex AI) integriert.4 Diese breite Verfügbarkeit unterstreicht Metas Engagement für die Zugänglichkeit seiner KI-Technologien.
Llama 4 Scout ist das kompaktere der beiden veröffentlichten Modelle und wurde speziell auf Effizienz und den Betrieb auf einer einzelnen NVIDIA H100 GPU hin optimiert.1 Mit 17 Milliarden aktiven Parametern und insgesamt 109 Milliarden Parametern, verteilt auf 16 Experten, bietet Scout native Multimodalität, was bedeutet, dass es Text und Bilder von Grund auf versteht und verarbeiten kann.1 Eine der herausragendsten Eigenschaften von Scout ist sein branchenführendes Kontextfenster von bis zu 10 Millionen Token.1 Dies ermöglicht die Verarbeitung extrem langer Texte und eröffnet neue Möglichkeiten für Anwendungen wie die Zusammenfassung ganzer Bücher oder die Analyse umfangreicher Codebasen.4 Scout nutzt eine Mixture-of-Experts (MoE) Architektur, bei der nur ein Teil der Modellparameter für jede Anfrage aktiviert wird, was zu einer höheren Effizienz führt.1
Llama 4 Maverick ist das leistungsstärkere der beiden Modelle und wurde für anspruchsvolle Aufgaben und die Unterstützung beim Programmieren entwickelt.1 Es verfügt ebenfalls über 17 Milliarden aktive Parameter, nutzt aber 128 Experten innerhalb seiner MoE-Architektur und kommt auf insgesamt 400 Milliarden Parameter.1 Maverick zeichnet sich durch eine hohe Leistungsfähigkeit im Bereich des Bild- und Textverständnisses aus und soll in den Bereichen Reasoning und Coding mit Modellen wie DeepSeek v3 vergleichbar sein, dabei aber weniger als die Hälfte der aktiven Parameter verwenden.1 Das Kontextfenster von Maverick beträgt 1 Million Token, was ebenfalls eine deutliche Steigerung gegenüber früheren Llama-Modellen darstellt.1
Die Verwendung einer Mixture-of-Experts Architektur 1 ist ein wesentlicher technischer Fortschritt, der es ermöglicht, die Gesamtparameter des Modells zu erhöhen, ohne die Inferenzkosten wesentlich zu steigern.23 Bei dieser Architektur wird für jeden Token nur ein Bruchteil der Gesamtparameter aktiviert, was die Effizienz und Geschwindigkeit verbessert.4 Die native Multimodalität 1 durch Early Fusion ermöglicht es den Modellen, Text- und Bild-Token von Anfang an in einer einheitlichen Architektur zu verarbeiten 7, was ein tieferes Verständnis des visuellen Kontexts ermöglicht.
Echo in den Medien: Die deutschsprachige Berichterstattung über Llama 4
Die Einführung von Llama 4 hat auch in der deutschsprachigen Medienlandschaft ein breites Echo gefunden.
Nachrichtenportale und Technologieblogs hoben insbesondere die Effizienz der Modelle durch die Mixture-of-Experts Architektur hervor.9 Das extrem große Kontextfenster von Llama 4 Scout wurde ebenfalls als ein bedeutendes Merkmal und potenzieller Game-Changer für Anwendungen in der Langtextverarbeitung hervorgehoben.9 Die nativen multimodalen Fähigkeiten der Llama 4 Modelle wurden ebenfalls als wichtiger Fortschritt gewürdigt, der neue Anwendungsfelder im Bereich der Mensch-Maschine-Interaktion eröffnet.9
Allerdings gab es auch kritische Stimmen und die Berichterstattung thematisierte Einschränkungen.
So wurde beispielsweise die in unabhängigen Tests beobachtete schwächere Leistung der Llama 4 Modelle bei der Verarbeitung sehr langer Kontexte im Vergleich zu anderen Modellen wie Gemini 2.5 Pro angesprochen.16 Ein weiterer wichtiger Punkt in der deutschsprachigen Berichterstattung war die Einschränkung der Nutzung der multimodalen Fähigkeiten der Llama 4 Modelle für Unternehmen und Einzelpersonen mit Sitz in der Europäischen Union aufgrund regulatorischer Unsicherheiten.3 Diese Restriktion betrifft jedoch nicht Endnutzer von Produkten oder Diensten, die auf Llama 4 basieren.18
Im Vergleich zu anderen Modellen wie GPT-4 wurde Llama 4 in der deutschsprachigen Berichterstattung oft anhand der von Meta veröffentlichten Benchmarks dargestellt, die in einigen Bereichen eine Überlegenheit oder Vergleichbarkeit zeigten.16 Es wurde jedoch auch darauf hingewiesen, dass unabhängige Tests teilweise zu abweichenden Ergebnissen führten, insbesondere im Hinblick auf die Leistung in spezifischen Aufgaben wie dem Coding.35
Stimmen aus der Community: Erste Reaktionen und Meinungen zur Llama 4 Familie
Die Reaktionen der Technologie-Community auf die Einführung von Llama 4 waren vielfältig und spiegelten sowohl Begeisterung als auch Skepsis wider.14 Ein Aspekt, der von vielen Nutzern positiv hervorgehoben wurde, ist das extrem große Kontextfenster von Llama 4 Scout.4 Die Möglichkeit, bis zu 10 Millionen Token zu verarbeiten, wurde als potenziell revolutionär für Aufgaben wie die Analyse sehr langer Dokumente oder Codebasen angesehen.8 Der Open-Source-Ansatz von Meta wurde ebenfalls positiv hervorgehoben, da er eine größere Flexibilität und Anpassbarkeit für Entwickler ermöglicht.4
Auf der anderen Seite gab es auch Kritik und Enttäuschungen.
Einige Nutzer berichteten von einer Diskrepanz zwischen den von Meta veröffentlichten Benchmark-Ergebnissen und der tatsächlichen Leistung der Modelle in der Praxis, insbesondere im Bereich des Codings.1 Es wurden auch Bedenken hinsichtlich der hohen Hardware-Anforderungen geäußert, die den Einsatz der Modelle für Hobby-Nutzer und kleinere Entwickler erschweren könnten.14 Im direkten Vergleich mit anderen aktuellen Modellen wie GPT-4, Gemini oder DeepSeek zeigten die Meinungen in der Community ein gemischtes Bild.1 Während einige Nutzer Llama 4 in bestimmten Bereichen als konkurrenzfähig oder sogar überlegen empfanden, berichteten andere von einer geringeren Leistung im Vergleich zu etablierten Modellen.
Die Kontroverse um die Benchmark-Ergebnisse und den Verdacht der Manipulation trug ebenfalls zu einer gemischten öffentlichen Wahrnehmung bei.1
Technische Tiefenanalyse: Die Spezifikationen von Llama 4 Scout und Maverick im Detail
Die Llama 4 Modelle basieren auf einer Mixture-of-Experts (MoE) Architektur.4 Diese Architektur zeichnet sich dadurch aus, dass das Modell aus mehreren spezialisierten Submodellen, den sogenannten Experten, besteht.5 Für jede Eingabe wird nur ein kleiner Teil dieser Experten aktiviert, was zu einer effizienteren Nutzung der Rechenressourcen und einer schnelleren Inferenz führt.5 Obwohl die Modelle über eine hohe Anzahl an Gesamtparametern verfügen (Scout: 109 Milliarden, Maverick: 400 Milliarden), sind zu jedem Zeitpunkt nur 17 Milliarden Parameter aktiv.1 Scout nutzt 16 Experten, während Maverick mit 128 Experten eine feinere Spezialisierung ermöglicht.1
Das Kontextfenster ist ein entscheidender Faktor für die Leistungsfähigkeit von Sprachmodellen.
Llama 4 Scout bietet hier mit bis zu 10 Millionen Token eine herausragende Kapazität.1 Diese enorme Größe wird durch die iRoPE (interleaved attention layers) Architektur ermöglicht.26 Llama 4 Maverick verfügt über ein Kontextfenster von 1 Million Token, was ebenfalls sehr beachtlich ist.1 Beide Modelle unterstützen native Multimodalität durch Early Fusion 1, was die Verarbeitung von Text und Bildern in einer gemeinsamen Architektur ermöglicht.7 Die Modelle unterstützen 12 Hauptsprachen, wurden aber auf einer breiteren Basis von über 200 Sprachen trainiert.4 Für den Betrieb von Llama 4 Scout wird mindestens eine NVIDIA H100 GPU empfohlen, während für Llama 4 Maverick mehrere H100 GPUs für eine optimale Leistung sinnvoll sein können.1 Die Optimierung der Modelle für NVIDIA Hardware und die Verfügbarkeit als NVIDIA NIM Microservices 30 deuten auf eine enge Zusammenarbeit zwischen Meta und NVIDIA hin, um eine hohe Leistung und effiziente Bereitstellung zu gewährleisten.
Der Leistungsvergleich: Wie schlägt sich Llama 4 gegen GPT-4 und andere Top-Modelle?
Meta hat für die Llama 4 Modelle eine Reihe von Benchmark-Ergebnissen veröffentlicht, die ihre Leistungsfähigkeit in verschiedenen Bereichen demonstrieren sollen.1 Laut Meta übertrifft Llama 4 Scout Modelle wie Gemma 3, Gemini 2.0 Flash-Lite und Mistral 3.1 in einer Vielzahl von Benchmarks und bietet eine branchenführende Kontextfenstergröße.9 Llama 4 Maverick soll GPT-4o und Gemini 2.0 Flash in vielen Benchmarks übertreffen und in den Bereichen Reasoning und Coding mit DeepSeek v3 vergleichbar sein, dabei aber weniger Ressourcen benötigen.1
Unabhängige Evaluationen durch die Community zeigen jedoch ein differenzierteres Bild.1 Während Llama 4 in Standard-Benchmarks gute Ergebnisse erzielt, gab es Berichte über Schwächen bei der Verarbeitung langer Kontexte und in bestimmten Aufgaben wie dem Coding.35 Insbesondere die Leistung im LMArena Benchmark wurde kritisiert, da einige Tester erhebliche Unterschiede zur Leistung auf anderen Plattformen feststellten.35
Im direkten Vergleich mit GPT-4 zeigen Metas Benchmarks, dass Llama 4 in einigen Bereichen konkurrenzfähig ist oder sogar übertrifft.1 Unabhängige Tests deuten jedoch darauf hin, dass GPT-4 in komplexen Reasoning- und Coding-Aufgaben weiterhin Vorteile haben könnte.35 Es ist wichtig zu beachten, dass die tatsächliche Leistung stark von der spezifischen Anwendung und den verwendeten Prompts abhängen kann.
Um einen direkten Vergleich zu ermöglichen, zeigt die folgende Tabelle ausgewählte Benchmark-Ergebnisse von Llama 4 Scout und Maverick im Vergleich zu GPT-4 (basierend auf verschiedenen Quellen):
Benchmark | Llama 4 Scout | Llama 4 Maverick | GPT-4 (32K) |
---|---|---|---|
MMLU | 79.6 | 85.5 | 86.4% |
MMLU-Pro | 74.3 | 80.5 | N/A |
MATH | 50.3 | 61.2 | N/A |
MBPP | 67.8 | 77.6 | 67% |
MMMU | 69.4 | 73.4 | 34.9% |
DocVQA (Test) | 94.4 | 94.4 | N/A |
LiveCodeBench | 32.8 | 43.4 | N/A |
GPQA Diamond | 57.2 | 69.8 | N/A |
Diese Tabelle verdeutlicht, dass Llama 4 in multimodalen Benchmarks wie MMMU und DocVQA sehr gut abschneidet und in einigen Bereichen wie MBPP mit GPT-4 konkurrieren kann.
GPT-4 zeigt jedoch in traditionellen Sprachverständnis-Benchmarks wie MMLU weiterhin eine starke Leistung.
Anwendungsfelder und Potenziale: Wo können die Llama 4 Modelle eingesetzt werden?
Die Llama 4 Modelle bieten ein breites Spektrum an potenziellen Anwendungsfeldern.
Das extrem große Kontextfenster von Llama 4 Scout prädestiniert es für Aufgaben wie die Multidokumenten-Zusammenfassung und die Verarbeitung sehr langer Kontexte, was in Bereichen wie der juristischen oder wissenschaftlichen Analyse von großem Nutzen sein kann.4 Llama 4 Maverick mit seinen verbesserten Konversationsfähigkeiten und der nativen Multimodalität eignet sich hervorragend für die Entwicklung von Chatbots und virtuellen Assistenten, die sowohl Text als auch Bilder verstehen und verarbeiten können.3
Die multimodalen Fähigkeiten beider Modelle eröffnen vielfältige Anwendungen im Bereich des Bild- und Textverständnisses, wie beispielsweise die automatische Bildbeschreibung, das visuelle Question Answering oder die Analyse von Dokumenten mit eingebetteten Grafiken.1 Llama 4 Maverick bietet zudem eine verbesserte Unterstützung für Coding und Softwareentwicklung, was es zu einem wertvollen Werkzeug für Programmierer machen könnte.1 Die Fähigkeit der Modelle, eine Vielzahl von Sprachen zu verstehen und zu generieren, prädestiniert sie für multilinguale Anwendungen wie die automatische Übersetzung oder den mehrsprachigen Kundensupport.4 Darüber hinaus könnten die Llama 4 Modelle eine wichtige Rolle in der Entwicklung intelligenter Agentensysteme und beim Tool-Calling spielen, wodurch KI-Assistenten in die Lage versetzt werden, komplexe Aufgaben selbstständig zu erledigen.3 Die breite Verfügbarkeit der Modelle auf verschiedenen Cloud-Plattformen 4 wird die Implementierung und Skalierung dieser Anwendungen weiter erleichtern.
Nutzer im Test: Erste Erfahrungen mit Llama 4 in der Praxis
Die ersten Nutzererfahrungen mit Llama 4 sind vielfältig.
Einige Entwickler und Forscher haben ihre ersten Eindrücke in Blogs, Foren und sozialen Medien geteilt.4 Während einige Nutzer von der Geschwindigkeit und der Fähigkeit zur Verarbeitung langer Kontexte beeindruckt waren 15, äußerten andere Enttäuschung über die Leistung in spezifischen Aufgaben wie dem Coding.46 Es gibt bereits erste Anwendungsbeispiele, wie die Analyse umfangreicher PDF-Dokumente mithilfe des 10 Millionen Token Kontextfensters von Llama 4 Scout.18 Auch die Bildgenerierungsfunktion von Meta AI, die auf Llama 4 basiert, wurde von Nutzern getestet, wobei die Ergebnisse hier noch nicht durchgehend überzeugend waren.18
Die Leistung der Llama 4 Modelle in der Praxis scheint in verschiedenen Aufgabenbereichen zu variieren.
Einige Nutzer berichteten von guten Ergebnissen bei der Textgenerierung und -zusammenfassung 18, während andere Schwierigkeiten bei komplexeren Aufgaben wie dem logischen Schlussfolgern oder dem Generieren korrekten Codes feststellten.46 Die multimodalen Fähigkeiten wurden ebenfalls getestet, beispielsweise bei der Bildbeschreibung, wobei die Ergebnisse hier vielversprechend, aber noch nicht perfekt waren.18 Die anfängliche Enttäuschung einiger Nutzer in Bezug auf die Coding-Fähigkeiten 46 steht im Kontrast zu Metas eigenen Benchmark-Ergebnissen 5, was möglicherweise auf Implementierungsprobleme oder unterschiedliche Testbedingungen zurückzuführen ist.1 Die Beschränkung der multimodalen Nutzung für EU-Bürger hat ebenfalls zu Frustration in der europäischen Entwickler-Community geführt.3
Fazit: Llama 4 – Ein bedeutender Schritt im Open-Source-KI-Ökosystem
Die Einführung der Llama 4 Modellfamilie durch Meta AI stellt einen bedeutenden Fortschritt im Bereich der Open-Source-KI dar.4 Die Modelle Scout und Maverick bieten beeindruckende Fähigkeiten, insbesondere im Hinblick auf native Multimodalität und das extrem große Kontextfenster von Scout.1 Die öffentliche Aufnahme war gemischt, wobei die Community die innovativen Funktionen lobte, aber auch auf Diskrepanzen zwischen Benchmarks und realer Leistung sowie auf Einschränkungen wie das EU-Verbot für die multimodale Nutzung hinwies.3
Die technische Analyse zeigt die fortschrittliche MoE-Architektur und die sorgfältige Optimierung der Modelle für Effizienz und Leistung.4 Die Benchmark-Vergleiche deuten auf eine starke Konkurrenzfähigkeit mit anderen führenden Modellen hin, obwohl unabhängige Tests in einigen Bereichen noch Verbesserungspotenzial aufzeigen.1 Die potenziellen Anwendungsfelder sind vielfältig und reichen von der Verarbeitung langer Texte über verbesserte Chatbots bis hin zu multimodalen Anwendungen und der Unterstützung von Softwareentwicklung.3 Erste Nutzererfahrungen deuten auf ein großes Potenzial hin, auch wenn in einigen Bereichen noch Optimierungsbedarf besteht.4
Für die Leser von ostheimer.at bedeutet die Einführung von Llama 4, dass eine neue Generation leistungsstarker, multimodaler KI-Modelle verfügbar ist, die das Potenzial haben, innovative Anwendungen in verschiedenen Bereichen zu ermöglichen.
Es ist ratsam, die weiteren Entwicklungen der Llama 4 Familie, insbesondere die Veröffentlichung des Behemoth-Modells und eines dedizierten Reasoning-Modells 1, sowie die Reaktionen der Community aufmerksam zu verfolgen.
Trotz der aktuellen Einschränkungen in der EU für die multimodale Nutzung bieten die Llama 4 Modelle, insbesondere Scout mit seinem enormen Kontextfenster, spannende Möglichkeiten für die Verarbeitung und Analyse großer Datenmengen.
Die Open-Source-Verfügbarkeit der Modelle 4 wird es der globalen Entwicklergemeinschaft ermöglichen, auf dieser Technologie aufzubauen und sie weiter zu verfeinern, was in Zukunft zu noch beeindruckenderen Anwendungen führen könnte.1
Referenzen
1 Meta Llama 4 Benchmarking Confusion: How Good Are the New AI Models? – CNET, Zugriff am April 9, 2025, https://www.cnet.com/tech/services-and-software/meta-dropped-llama-4-what-to-know-about-the-two-new-ai-models/
2 Neues KI-Modell Llama 4 von Meta: Herausforderungen und Chancen im Wettbewerb, Zugriff am April 9, 2025, https://www.mind-verse.de/news/neues-ki-modell-llama-4-meta-herausforderungen-chancen-wettbewerb
3 Meta Llama 4 kommt in mehreren Versionen mit Fokus auf Reasoning und Agents, Zugriff am April 9, 2025, https://the-decoder.de/meta-llama-4-kommt-in-mehreren-versionen-mit-fokus-auf-reasoning-und-agents/
4 Llama 4 family of models from Meta are now available in SageMaker JumpStart – AWS, Zugriff am April 9, 2025, https://aws.amazon.com/blogs/machine-learning/llama-4-family-of-models-from-meta-are-now-available-in-sagemaker-jumpstart/
5 meta-llama/Llama-4-Scout-17B-16E – Hugging Face, Zugriff am April 9, 2025, https://huggingface.co/meta-llama/Llama-4-Scout-17B-16E
6 llama-models/models/llama4/MODEL_CARD.md at main – GitHub, Zugriff am April 9, 2025, https://github.com/meta-llama/llama-models/blob/main/models/llama4/MODEL_CARD.md
7 Meta’s Llama 4 models now available on Amazon Web Services, Zugriff am April 9, 2025, https://www.aboutamazon.com/news/aws/aws-meta-llama-4-models-available
8 Meta’s Llama 4 Large Language Models now available on Snowflake Cortex AI, Zugriff am April 9, 2025, https://www.snowflake.com/en/blog/meta-llama-4-now-available-snowflake-cortex-ai/
9 Meta AI Llama 4 erschienen: Was Scout & Maverick wirklich können – KINEWS24, Zugriff am April 9, 2025, https://kinews24.de/en/meta-ai-llama-4/
10 Meta Llama 4 Maverick and Llama 4 Scout now available in watsonx.ai | IBM, Zugriff am April 9, 2025, https://www.ibm.com/new/announcements/Meta-llama-4-maverick-and-llama-4-scout-now-available-in-watsonx-ai
11 Welcome Llama 4 Maverick & Scout on Hugging Face, Zugriff am April 9, 2025, https://huggingface.co/blog/llama4-release
12 Llama 4 Maverick Instruct (Basic) – Fireworks AI, Zugriff am April 9, 2025, https://fireworks.ai/models/fireworks/llama4-maverick-instruct-basic
13 Meta AI Llama 4 erschienen: Was Scout & Maverick wirklich können – KINEWS24, Zugriff am April 9, 2025, https://kinews24.de/meta-ai-llama-4/
14 Initial impressions of Llama 4 – Simon Willison’s Weblog, Zugriff am April 9, 2025, https://simonwillison.net/2025/Apr/5/llama-4-notes/
15 The Llama 4 Herd – Open Source Won? – YouTube, Zugriff am April 9, 2025, https://www.youtube.com/watch?v=niNV4uziW50
16 Meta veröffentlicht erste multimodale Llama-4-Modelle und die EU bleibt außen vor, Zugriff am April 9, 2025, https://the-decoder.de/meta-veroeffentlicht-erste-multimodale-llama-4-modelle-und-die-eu-bleibt-aussen-vor/
17 Llama 4 Quickstart – Introduction – Together AI, Zugriff am April 9, 2025, https://docs.together.ai/docs/llama4-quickstart
18 META AI getestet! So nutzt du LLaMA 4 (Anleitung und Use Cases Deutsch) – YouTube, Zugriff am April 9, 2025, https://www.youtube.com/watch?v=82cje6Vki6k
19 What to know about Meta’s Llama 4 model family – TechTalks, Zugriff am April 9, 2025, https://bdtechtalks.com/2025/04/06/meta-llama-4/
20 New 2 Trillion Parameter AI Model Shocks The World (Meta’s Llama 4 Behemoth) – YouTube, Zugriff am April 9, 2025, https://www.youtube.com/watch?v=K-IJynTXdIc
21 Meta AI Releases Llama 4: Early Impressions and Community Feedback – InfoQ, Zugriff am April 9, 2025, https://www.infoq.com/news/2025/04/meta-ai-llama-4/
22 Meta debuts its first ‚mixture of experts‘ models from the Llama 4 herd – The Register, Zugriff am April 9, 2025, https://www.theregister.com/2025/04/07/llama_4_debuts/
23 The Llama 4 herd: The beginning of a new era of natively multimodal AI innovation, Zugriff am April 9, 2025, https://ai.meta.com/blog/llama-4-multimodal-intelligence/
24 Introducing the Llama 4 herd in Azure AI Foundry and Azure Databricks | Microsoft Azure Blog, Zugriff am April 9, 2025, https://azure.microsoft.com/en-us/blog/introducing-the-llama-4-herd-in-azure-ai-foundry-and-azure-databricks/
25 Llama 4 Comparison with Claude 3.7 Sonnet, GPT-4.5, and Gemini 2.5 – Bind AI, Zugriff am April 9, 2025, https://blog.getbind.co/2025/04/06/llama-4-comparison-with-claude-3-7-sonnet-gpt-4-5-and-gemini-2-5/
26 LLAMA 4: BEST OPEN LLM! Beats Sonnet 3.7, R1, GPT-4.5! 10 Million Context Window! (Fully Tested) – YouTube, Zugriff am April 9, 2025, https://www.youtube.com/watch?v=k1TuBKPtp6A
27 Meta-KI: Erste Llama-4-Modelle sind besonders effizient – aber nicht in der EU, Zugriff am April 9, 2025, https://www.computerbase.de/news/apps/meta-ki-erste-llama-4-modelle-sind-besonders-effizient-aber-nicht-in-der-eu.92071/
28 Llama 4: Metas neue KI-Modelle werden noch komplexer – Hardwareluxx, Zugriff am April 9, 2025, https://www.hardwareluxx.de/index.php/news/software/anwendungsprogramme/65880-mg-llama-4-metas-neue-ki-modelle-werden-noch-komplexer.html
29 Meta Launches Llama 4 Models, Driving Improved AI Performance | Social Media Today, Zugriff am April 9, 2025, https://www.socialmediatoday.com/news/meta-releases-llama-4-ai-models/744560/
30 NVIDIA Accelerates Inference on Meta Llama 4 Scout and Maverick, Zugriff am April 9, 2025, https://developer.nvidia.com/blog/nvidia-accelerates-inference-on-meta-llama-4-scout-and-maverick/
31 Die Llama 4-Revolution: Wie Metas neue KI-Familie den Open-Source-Markt neu definiert, Zugriff am April 9, 2025, https://www.thinktecture.com/ai/die-llama-4-revolution-wie-metas-neue-ki-familie-den-open-source-markt-neu-definiert/
32 meta-llama/Llama-4-Maverick-17B-128E-Original – Hugging Face, Zugriff am April 9, 2025, https://huggingface.co/meta-llama/Llama-4-Maverick-17B-128E-Original
33 Meta’s Llama 4: Features, Access, How It Works, and More – DataCamp, Zugriff am April 9, 2025, https://www.datacamp.com/blog/llama-4
34 Meta veröffentlicht neue KI-Modellreihe Llama 4 Scout