Meta uvádí Llama 4: nový AI model zvládá text, obraz i zvuk
Meta představila Llama 4, svůj nejpokročilejší otevřený AI model. Novinka zvládá text, obraz i zvuk a má konkurovat nejlepším na trhu.
Meta oficiálně představila čtvrtou generaci svého jazykového modelu Llama, která přináší zásadní novinky. Modely Llama 4 Scout a Maverick zvládají kromě textu také práci s obrazem, videem a zvukem – tedy plně multimodální přístup, který otevírá nové možnosti v oblasti umělé inteligence. Společnost zároveň oznámila, že modely budou dostupné jako open-source, což je jasná zpráva směrem ke komunitě a vývojářům.
Meta označuje Llamu 4 za své doposud nejvýkonnější řešení, které navíc doplňuje „učící“ model s názvem Behemoth – ten má sloužit jako základní trenér a učitel pro další generace AI systémů. Společnost však přiznala, že vývoj modelu byl náročný a čelil zpoždění kvůli náročným požadavkům na logické uvažování a přirozené hlasové interakce.
V silně konkurenčním prostředí, kde dominují například GPT modely od OpenAI nebo nově připravovaný Qwen 3 od čínské Alibaby, se Meta rozhodla investovat až 65 miliard dolarů do infrastruktury. Cílem je držet krok s lídry trhu a zároveň posílit své postavení jako klíčového hráče v oblasti otevřeného vývoje AI.