Nová reportáž odhaľuje, že CEO spoločnosti OpenAI nemá dostatočné technické znalosti a podľa kolegov často zamieňa základné pojmy z oblasti umelej inteligencie. Namiesto odbornosti sa údajne spolieha na manipulatívne schopnosti, pričom niektorí ho prirovnávajú k známym finančným podvodníkom.
Najlepšie hodnotené za 3 dni
Špičkový bezpečnostný analytik Nicholas Carlini vyzdvihuje efektivitu nového nástroja Mythos pri hľadaní softvérových zraniteľností. Tvrdí, že vďaka tejto technológii dokázal za extrémne krátky čas odhaliť rekordné množstvo chýb v kóde.
Článok kriticky skúma súčasný stav strojového učenia a veľkých jazykových modelov, ktoré označuje za fascinujúce, no zároveň nespoľahlivé „stroje na nezmysly“. Autor poukazuje na nepredvídateľnú povahu AI, ktorá dokáže riešiť zložité úlohy, no vzápätí zlyháva pri banalitách a sebavedomo zavádza používateľov.
Model Claude vykazuje kritickú chybu, pri ktorej správy určené pre vlastné vnútorné procesy omylom označí ako príkazy od používateľa. Tento problém nie je bežnou halucináciou, ale systémovou chybou, ktorá môže viesť k neželaným akciám s vysokým rizikom, za ktoré následne AI viní človeka.
Používateľ zaznamenal neoprávnené poplatky za používanie modelu Claude v čase, keď ho vôbec nevyužíval, pričom podobné skúsenosti hlásia aj ďalší členovia komunity. Podpora spoločnosti Anthropic je však neúčinná, pretože komunikáciu filtruje AI bot a ani po mesiaci sa poškodenému zákazníkovi neozval žiadny človek.
Autor článku vysvetľuje, ako efektívnejšie využiť 100 dolárov mesačne prechodom z predplatného Claude na kombináciu editora Zed a platformy OpenRouter. Tento prístup rieši problémy s limitmi používania, umožňuje prístup k viacerým modelom naraz a zabezpečuje, že nevyčerpaný kredit sa prenáša do ďalšieho mesiaca.
Americký viceprezident JD Vance vyhlásil, že Irán predložil tri rôzne verzie mierového plánu, pričom prvú z nich označil za produkt umelej inteligencie a okamžite ju odmietol. Zároveň vyzval Irán, aby neohrozoval krehké prímerie kvôli útokom na Libanon, ktorý podľa neho nebol súčasťou dohodnutých podmienok.
Spoločnosť OpenAI a miliardár Vinod Khosla navrhujú radikálnu reformu daňového systému, ktorá by preniesla záťaž z pracujúcich ľudí na kapitál a korporácie. Cieľom je ochrániť sociálnu sieť pred vplyvom umelej inteligencie, ktorá podľa nich v blízkej budúcnosti nahradí veľkú časť pracovných miest.
Prieskum ukazuje hlbokú priepasť medzi vedením firiem a zamestnancami, pričom väčšina pracovníkov sa novým nástrojom vyhýba pre nedôveru v ich spoľahlivosť. Hoci firmy investujú milióny do umelej inteligencie, produktivita nerastie, pretože ľuďom chýba potrebné školenie, jasné pravidlá a motivácia tieto technológie reálne využívať.
Dokument stanovuje pravidlá pre používanie AI nástrojov pri vývoji jadra Linux, pričom zdôrazňuje nutnosť dodržiavania licencií a štandardných procesov. AI nesmie pridávať značku Signed-off-by, za kód plne zodpovedá človek a príspevky s pomocou AI musia povinne obsahovať značku Assisted-by s názvom modelu.
Článok upozorňuje na invazívne praktiky pluginu Vercel pre Claude Code, ktorý zbiera dáta o príkazoch a promptoch používateľov aj v projektoch nesúvisiacich s touto platformou. Autor analýzou zdrojového kódu odhaľuje, že súhlas so zberom je získavaný netransparentne cez prompt injection a plugin ignoruje detekciu rámcov pri odosielaní telemetrie.
Spoločnosť Anthropic tajne vyvinula model AI schopný autonómne prekonávať najlepšie zabezpečené systémy sveta a odhaľovať desaťročia staré kybernetické zraniteľnosti. Hoci firma model zatiaľ verejne nesprístupnila, existencia takýchto mocných nástrojov v rukách súkromných korporácií zásadne mení geopolitickú stabilitu a bezpečnosť globálnej infraštruktúry.
Nadácia OpenAI prerozdelí šiestim vedeckým inštitúciám granty v hodnote presahujúcej 100 miliónov dolárov na urýchlenie vývoja liečby Alzheimerovej choroby. Cieľom iniciatívy je využiť schopnosť umelej inteligencie analyzovať zložité biologické dáta, navrhovať nové liečivá a identifikovať príčiny ochorenia, ktoré doteraz moderná medicína nedokázala efektívne vyriešiť.
14.
Inžinier z Google, ktorého odmietlo 16 škôl, využíva AI na žalobu univerzít za rasovú diskrimináciu
Otec mladého softvérového inžiniera z Google žaluje prestížne univerzity za rasovú diskrimináciu po tom, čo jeho syna napriek vynikajúcim výsledkom takmer nikde neprijali. Keďže rodinu odmietli zastupovať právnické firmy, pri príprave žalôb a právnych analýzach sa rozhodli naplno využiť silu umelej inteligencie.
Instant 1.0 prináša plne open-source backend navrhnutý tak, aby umožnil AI agentom budovať plnohodnotné full-stack aplikácie v reálnom čase. Systém obsahuje integrovaný synchronizačný engine, databázu Postgres a služby pre autentifikáciu či úložisko, čo vývojárom dovoľuje vytvárať neobmedzené množstvo moderných a rýchlych aplikácií bez zložitej konfigurácie infraštruktúry.
Anthropic uvádza Claude Managed Agents, nástroj na jednoduché budovanie a škálovanie AI agentov bez nutnosti riešiť zložitú infraštruktúru a zabezpečenie. Táto služba automatizuje orchestráciu úloh, správu kontextu aj bezpečnú prácu s nástrojmi, čo tímom umožňuje prejsť od prototypu k produkcii za pár dní namiesto mesiacov.
17.
Anthropic neuspel na odvolacom súde so žiadosťou o dočasné zablokovanie čiernej listiny Pentagonu
Federálny odvolací súd zamietol žiadosť spoločnosti Anthropic o dočasné pozastavenie jej zaradenia na čiernu listinu Ministerstva obrany USA, ktoré firmu označilo za bezpečnostné riziko. Hoci má spoločnosť predbežné opatrenie voči zákazu používania modelu Claude v iných vládnych zložkách, v rámci rezortu obrany nateraz zostáva vylúčená z kontraktov. Súd argumentoval uprednostnením národnej bezpečnosti počas vojenského konfliktu pred finančnými záujmami súkromnej firmy.
Spoločnosť OpenAI podporuje návrh zákona v štáte Illinois, ktorý by chránil vývojárov pokročilých AI modelov pred právnou zodpovednosťou za extrémne spoločenské škody, ak neboli spôsobené úmyselne. Kritici tento krok vnímajú ako snahu o zníženie transparentnosti a bezpečnosti, zatiaľ čo OpenAI argumentuje potrebou jednotných štandardov, ktoré nebudú brzdiť americké inovácie.
Autor sa zamýšľa nad rizikami umelej inteligencie, ktorá po našej pozornosti začína kradnúť aj to najcennejšie – náš vlastný tvorivý hlas. Napriek varovaniam z popkultúry a neschopnosti rozoznať realitu od podvrhu pokračujeme vo vývoji technológie, ktorú sme v honbe za pokrokom nedokázali včas zastaviť.
Po nedávnom výpadku siete Bluesky začali používatelia hromadne obviňovať vývojárov z takzvaného „vibe codingu“, teda nekritického spoliehania sa na umelú inteligenciu pri písaní kódu. Hoci tím Bluesky priznáva používanie AI nástrojov na zrýchlenie práce, pre mnohých odporcov technológie sa tento prístup stal synonymom pre nekvalitu a lenivosť.
Spoločnosť OpenAI dočasne prerušila projekt Stargate UK, ktorý mal Británii zabezpečiť vlastné kapacity pre prevádzku pokročilých AI modelov. Dôvodom sú vysoké náklady na energiu a legislatívne prekážky, pričom firma na podobných iniciatívach spolupracuje aj s ďalšími krajinami vrátane Slovenska.
22.
Launch HN: Twill.ai (YC S25) – Delegujte prácu cloudovým agentom a získavajte hotové pull requesty
Twill.ai je platforma využívajúca AI agentov, ktorí autonómne píšu kód, testujú ho v izolovanom prostredí a pripravujú hotové pull requesty pre vývojárov. Nástroj umožňuje tímom škálovať vývoj, automatizovať opravy chýb a dokumentáciu, pričom spolupracuje s nástrojmi ako GitHub, Slack či Linear.
Spoločnosť OpenAI zverejnila dokument navrhujúci radikálne reformy daňového systému a pracovného trhu v reakcii na príchod umelej superinteligencie. Kritici a odborníci však tieto návrhy vnímajú skôr ako strategické PR a snahu o získanie vplyvu na reguláciu, než ako úprimnú snahu o budovanie skutočných mechanizmov spoločenskej ochrany.
Článok prirovnáva súčasnú horúčku v zavádzaní umelej inteligencie k Maovmu „Veľkému skoku vpred“, kde neodborné plnenie kvót viedlo ku katastrofe. Spoločnosti dnes v honbe za metrikami vytvárajú nefunkčné riešenia, eliminujú kľúčových zamestnancov a podnecujú zamestnancov k budovaniu neudržateľných systémov, čo namiesto skutočnej produktivity vytvára len nebezpečný technologický dlh.
Autori na základe rýchleho pokroku v autonómnom kódovaní a úspechu modelov ako Claude Opus 4.6 posunuli očakávaný príchod kľúčových míľnikov AI o 1,5 až 2 roky skôr. Dosiahnutie úrovne automatizovaného programátora teraz predpovedajú už na rok 2028, pričom k skráteniu termínov prispeli aj rastúce príjmy AI spoločností a zrýchľujúci sa trend vývoja agentických systémov.
Článok nadväzuje na slávnu filozofickú otázku Thomasa Nagela o vedomí netopiera a prenáša ju do kontextu umelej inteligencie a ľudskej skúsenosti. Autor prostredníctvom konceptu „bezhlavosti“ Douglasa Hardinga skúma subjektívne vnímanie seba samého a tvrdí, že z perspektívy prvej osoby sme nedeliteľne spojení s okolitým svetom.
OpenAI podporuje návrh zákona v štáte Illinois, ktorý by chránil vývojárov pokročilých AI modelov pred právnou zodpovednosťou za kritické škody, pokiaľ neboli spôsobené úmyselne. Cieľom iniciatívy je vytvoriť jednotné štandardy a zachovať inovácie, hoci kritici varujú, že spoločnosti by nemali mať výnimky zo zodpovednosti za závažné spoločenské katastrofy.
Odvolací súd v USA zamietol žiadosť spoločnosti Anthropic o pozastavenie vládneho zákazu, ktorý firmu označil za bezpečnostné riziko a odstrihol ju od štátnych zákaziek. Spoločnosť tvrdí, že ide o nezákonnú odplatu za odmietnutie využívania jej modelov na vojnové účely, pričom v paralelnom spore v Kalifornii už predbežne uspela.
Výskumníci v rámci experimentu vytvorili fiktívne ochorenie a podvrhnuté štúdie plné absurdných indícií, aby otestovali dôveryhodnosť AI modelov. Populárne chatboty ako ChatGPT či Gemini dezinformáciu rýchlo prebrali a začali chorobu prezentovať ako realitu, pričom sa objavila aj v recenzovanej literatúre.
James Strahler II. z Ohia sa priznal k zneužívaniu AI na vytváranie a šírenie zmanipulovaných intímnych materiálov reálnych osôb vrátane detí. Ide o prvý odsúdeniahodný prípad podľa nového zákona Take It Down Act, ktorý zakazuje zverejňovanie deepfake obsahu bez súhlasu obetí.
Nová aktualizácia chatbota Gemini umožňuje generovať interaktívne 3D vizualizácie a simulácie, ktoré môžu používatelia v reálnom čase ovládať, otáčať alebo meniť ich parametre. Funkcia je dostupná pre všetkých používateľov aplikácie po prepnutí na model „Pro“ a je ideálna na názorné vysvetlenie fyzikálnych či astronomických javov.
Microsoft v rámci zjednodušovania systému odstraňuje nadbytočné prvky umelej inteligencie z aplikácií ako Poznámkový blok či Nástroj na vystrihovanie. Hoci značka Copilot z rozhraní mizne, samotné funkcie poháňané AI zostávajú zachované pod novými názvami.
Podľa nového prieskumu spoločnosti Karat sťažuje umelá inteligencia spoľahlivé overovanie technických zručností kandidátov, čím znehodnocuje tradičné kódovacie testy a zadania na doma. Hoci si firmy uvedomujú, že doterajšie metódy náboru prestávajú fungovať, stále hľadajú efektívny spôsob, ktorým by ich v ére AI nahradili.
Článok popisuje prerábku retro hry PvP-AI z roku 1990 pre moderný 8-bitový počítač Commander X16. Autor vysvetľuje špecifiká herných mechaník a technické výzvy pri emulácii, pričom unikátny dizajn hry vytvára ideálny priestor pre testovanie alternatívnych stratégií umelej inteligencie.
Napriek obrovským investíciám čelí OpenAI vnútornej nestabilite spôsobenej odchodmi kľúčových manažérov, rušením ambicióznych projektov a tlakom na generovanie zisku pred plánovaným vstupom na burzu. Kontroverzie okolo CEO Sama Altmana a rastúca konkurencia zo strany Anthropicu či Googlu vyvolávajú otázky, či si spoločnosť dokáže udržať svoje dominantné postavenie na trhu.