AIskimIQ

Denní přehled zpráv z AI & technologií

Archiv

Všechny publikované přehledy AI & technologií

45 článků

Trh s velkými jazykovými modely pokračuje v rychlé expanzi – nové analýzy předpovídají, že příjmy v oblasti sledování datové linie a platforem pro vlastní trénink modelů se do roku 2030 více než zdvojnásobí, a to v důsledku rostoucích investic do AI a požadavků na regulatorní shodu; Google Cloud Next 2026 přitom staví agentní AI do centra svého programu a Adobe spouští AI agenta pro automatizaci end-to-end marketingových procesů podnikových klientů. Na poli samotných modelů pak strategie pro zvýšení výkonu malých jazykových modelů a spuštění thajského národního LLM (ThaiLLM) dokládají celosvětový trend směřující k větší efektivitě i technologické suverenitě.

40 článků

Platforma Claude od Anthropicu zaznamenala výrazný výpadek ovlivňující přihlašování do Claude.ai a Claude Code, zatímco technologie AI agentů nadále čelí problémům s růstem – konkrétně plýtváním tokeny, chaotickými systémy a narůstajícími bezpečnostními hrozbami. Na výzkumné frontě přináší technika TurboQuant od Googlu řešení kritických omezení paměti VRAM ve velkých jazykových modelech prostřednictvím optimalizace komprese KV cache, což představuje významný průlom v efektivitě.

36 článků

Adopce AI agentů se zrychluje spolu s narůstajícími bezpečnostními hrozbami – OpenAI rozšiřuje svého AI agenta Codex o schopnost přímo ovládat počítač a představuje GPT-Rosalind, specializovaný model pro biologický výzkum. Google mezitím vydal systém Auto-Diagnose postavený na velkých jazykových modelech, který automaticky identifikuje selhání integračních testů ve velkém měřítku, což signalizuje širší trend začleňování AI do podnikových softwarových procesů.

33 článků

Nový robotický model společnosti Physical Intelligence vykazuje schopnost generalizace podobnou velkým jazykovým modelům – včetně obdobných chyb – což představuje významný krok směrem k všestranné ztělesněné umělé inteligenci, zatímco výzkum obnovy tokenových podprostorů LLM pomocí systematického promptování prohlubuje naše chápání jejich vnitřní reprezentace informací. V oblasti AI agentů patří mezi klíčové novinky zavedení trvalé paměti agentů (Agent Memory) a nové nástroje pro podnikové nastavování pravidel od společností NanoClaw a Vercel, což signalizuje rychlé dozrávání infrastruktury AI agentů napříč odvětvími.

42 článků

Anthropic vydal Claude Opus 4.7 a znovu získal vedoucí pozici mezi veřejně dostupnými velkými jazykovými modely, zatímco OpenAI odpověděl uvedením GPT-Rosalind, specializovaného modelu pro biologické a life sciences výzkumy. Zároveň přinesla nová studie znepokojivé zjištění, že velké jazykové modely dokáží ve velkém měřítku znovu identifikovat anonymní uživatele, což má závažné dopady na ochranu soukromí.

43 článků

Výzkumníci zjistili, že jazykové modely mohou přenášet behaviorální vlastnosti prostřednictvím skrytých signálů v trénovacích datech, což vyvolává závažné obavy ohledně bezpečnosti a zarovnání AI, zatímco studie IBM potvrzuje, že mezifázový trénink je klíčový pro rozvoj schopností uvažování u velkých jazykových modelů. Vědci zároveň využívají velké jazykové modely k urychlení objevování nových materiálů, což zdůrazňuje rostoucí roli umělé inteligence ve vědeckém výzkumu.

40 článků

Nový výzkum ukazuje, že přední modely umělé inteligence stále bojují s klinickým uvažováním i přes rostoucí využití v medicíně, zatímco Claude Mythos od Anthropicu vyvolává vážné obavy v oblasti kybernetické bezpečnosti a nutí bezpečnostní ředitele přehodnotit své programy. Anthropic zároveň údajně jedná o vybudování rozsáhlého datového centra v jihovýchodním Michiganu, což naznačuje pokračující agresivní rozšiřování infrastruktury v odvětví umělé inteligence.

45 článků

Nová studie zkoumající 21 velkých jazykových modelů zjistila, že umělá inteligence stále zaostává v klinickém uvažování, což vyvolává obavy ohledně její spolehlivosti v medicíně, zatímco samostatný výzkum upozorňuje, že LLM nejen analyzují, ale aktivně vynášejí morální soudy o lidech. Nově vyvinutá technika přitom ukazuje slibné výsledky v prevenci poskytování nebezpečných rad ze strany AI systémů, což představuje potenciální krok vpřed v oblasti bezpečnosti umělé inteligence.

35 článků

Bezpečnostní výzkumníci odhalili škodlivé směrovače AI agentů schopné krást kryptoměny, což poukazuje na rostoucí rizika v oblasti agentních AI systémů; globální trh s AI agenty přitom rapidně roste, čínský AI ekosystém zažívá boom a společnost Meow Technologies spustila první agentní bankovní platformu. Lokální inference AI modelů na koncových zařízeních se zároveň stává významným bezpečnostním slepým místem podniků, protože vývojáři stále častěji provozují lokální LLM mimo dohled firemního IT.

37 článků

Robotický sektor zaznamenal dnes dva významné milníky – model GEN-1 od Generalist AI si nárokuje průlom ve výkonu robotů v reálném světě a UniX AI nasadila humanoidního robota Panther do skutečných domácností jako první na světě; ve světě velkých jazykových modelů pak dominovala zpráva o výpadku služby Claude od Anthropicu, který zasáhl více než 50 % uživatelů. Tyto události společně poukazují na rychlý pokrok v oblasti ztělesněné umělé inteligence a zároveň na přetrvávající problémy se spolehlivostí široce využívaných LLM platforem.

40 článků

Investice Alibaby ve výši 290 milionů dolarů do vývoje nového typu AI modelu signalizuje rostoucí uznání, že velké jazykové modely narážejí na své limity, zatímco nový výzkum ukazuje slibné využití LLM v medicíně – otorinolaryngologové projevili přijetí klinických kontrolních seznamů generovaných umělou inteligencí. Pokroky v efektivitě LLM (snížení paměťové náročnosti pomocí vektorové kvantizace TurboQuant) a nové bezpečnostní architektury AI agentů řešící izolaci přihlašovacích údajů odrážejí dvojí zaměření oboru na optimalizaci a bezpečnost.

39 článků

Investice Alibaby ve výši 290 milionů dolarů do world modelů signalizuje zásadní průmyslový obrat, přičemž přední hráči uznávají limity současné éry velkých jazykových modelů; nový výzkum zároveň přináší pokroky v efektivitě prostřednictvím vektorové kvantizace TurboQuant i varování před bezpečnostními riziky přehnaně sebejistých modelů a adversariálního přesvědčování v multiagentních systémech. Regulátoři navíc zvyšují dohled nad agentní AI, což znamená klíčový moment, kdy se technologické inovace a správa AI sbíhají zároveň.