Takovy ukazkovy - klasicky cyklus uspesnych technologickych korporaci. Stanou se uspesnymi diky lidem co maji jak technicke tak manazerske schopnosti, ti jsou pak nahrazeni nebo sami odejdou, korporat zkorporati, objevi se vsude spousta tabulek a do cela se dostanou lidi bez technickeho vzdelani. Samozrejme vyzkum a vyvoj se jevi jako vyhozene penize a navic trva dlouho, nez se realne projevi jeho utlumeni, takze firma zdanlive prosperuje dal/jeste vice, ale z pozice tech leadera miri v lepsim pripade nekam do stredu peletonu, protoze jim diky absenci investic jednoduse ujel vlak.
Schvalne, kolik takovych vyjmenujeme?
Google, IBM, Boeing, Sony, za me i Apple (ale ten jeste neni ve finalni fazi), pak samozrejme N vyrobcu mobilnich telefonu, Audi, BMW, Mercedes...
Velký problém společnosti Intel také nastal a začíná od roku cca 2012, kdy byla vydána architektura Sandy Bridge. Ta vycházela z izraelské technologie Core, která defakto Intel zachránila od té příšerné technologie NetBurst a procesorů Prescott ... No jenže od vydání této architektury se defakto každá další generace zlepšovala jen o pár procent, a Intel stále předváděl jako nejsilnější procesor pro desktop čtyřjádro, a do pracovních stanic tehdy existoval procesor I7 s K na konci do patice 2011 různých generací. Po několika letech stagnace vývoje u Intelu a absolutní návrhářské tragédii v AMD (viz bájný Bulldozer) si asi nikdo v Intelu nedokázal ani představit, že to AMD, které tvrdilo ještě v letech 2013-2015, že opouští trh highend procesorů a bude se soustředit na APU, se vrátí s tak silnými procesory, jako už i první Ryzeny byly ... Osmijádro až šestnáctijádro do desktopu bylo v té době proti Intel 4jádru jako zjevení. A už v té době bylo AMD technologicky velmi vpředu před Intelem. Už v té době vyrábělo jen jeden čip, a ten jen vlastně "lepilo" k sobě a tím vznikaly lepší a silnější procesory. A takto vlastně funguje AMD doteď. Intel se soustředil na své gigantické procesory a něco jako lepení apsolutně nebral v úvahu a dokonce na svých prezentacích nových serverových procesorů tvrdil, že procesory od AMD jsou slepence s nestálým výkonem. Jenže ouha, oni nebyly a postupem času AMD ukázala, že jejich přístup je mnohem lepší a výrobně efektivnější. Na to doteď podle mně Intel nedokázal zareagovat a defakto jsou 10 let ve vývoji za AMD. To, že přidávají malá a pomalá jádra, je dle mně špatný přístup. Do toho se samozřejmě v minulosti přidávaly problémy s neschopností odladit 10nm výrobu, optimalizace jejich 14nm+++++++ výroby, špatné pokusy na 7nm a jen jejich přejmenování 10nm na Intel 7... 7nm na Intel 4 atd ....
Pamatujete taky 4004, 8008, 8080, 8085, 80186, 80286, 80386, 80486, ... ? Programy se nedělali na PC, ale na speciálních vývojových systémech Intellec. V USA na něj bylo pro dovoz k nám embargo, tak se nakupoval od překupníka z Rakouska. V 80. letech se u nás začaly používat ve Výzkumném ústavu telekomunikací při vývoji tuzemské telefonní ústředny EDISS. Firma INTEL byla tehdy modla.
Nejsem si jistej, jestli ta historka s iPhonem je dobrý příklad selhání. Strategií Applu vždycky bylo od renomovaných dodavatelů začít poptávat vývoj, výrobu, a když se to Apple naučil a dostal se na slušné objemy, tak si vytvořit svůj analog a dodavatele se zbavit. Intel nakonec dodával Applu nějakou dobu procesory pro počítače a modemy - a jak to skončilo.
Intel prostě usnul na vavřínech. Ohledně Apple.... mno Apple si jede po svém a fakt nebude volit ani Intel ani AMD. To není příklad chyby Intelu.
Jinak nejsem si jistý jestli AMD má 100ni náhradu.
Další je zahledeni se v ARMu. Nemyslím že tahle hra o výkonu na Watt a mobilním využití je vše.
Obecně mnoha lidem stačil výkon prvních i5 a nechtějí platí víc. Nepotřebuji na pláži stříhat Oscarovy trhák v 8k.
Trochu nohama na zem,.
Ono ani vendor lock v požadacich W11 není neprůstřelný. Nekompatibilní vs upgrade za cca 750€ a to ještě bez disků a grafiky? Lidé hlasují nohama a hodně lidí v okoli má i ještě Core2Duo s Linuxem, nepotřebuje platit za upgrade, protože poměr toho co dostane za to co dá je nevyhodny. Dopíše mail o 0,0001s rychleji? Zakolik?
Jenže Kalifornie Intel neuživí, ona to neuživí ani Apple, kde právě ARMové PC jsou proti iPhonu černý kůň.
Jinak metodika je poněkud jiná než ...v definovanem limitu prikonu... Oni se neohání tím co udělá stroj za práci se spotřebou x-xxx Wh . Ale poměrem výkon na Watt ve specifických úlohách.
Mac Studio tak má stejně 480 W zdroj , má ventilátor. A pokud nevyužívá program masivní paralelizaci což né vždy jde tak to nijak výkonem neoslňuje. Ne všechny úlohy jsou paralelizovatelné, protože často tvoří řetězec závislostí, který musí běžet krok za krokem. Proto single-core výkon zůstává strategicky důležitý a i v době, kdy procesory mají desítky jader.
Bulldozer nevyšel, ale byl to základ a přesně ukázal AMD cestu. Tenkrát neměli dostatek prostředku na kompletní vyladění a v souvislosti s tím, jak Windows nwdokázali správně jádra Bulldozeru využívat, měl procesor o dost slabší výkon.
Mimochodem, vzpomínám si, že se psalo o tom, že velkou část Bulldozeru museli nechat udělat umělou inteligencí a proto to bylo tak neefektivní :-)
To, že zřejmě manažeři Intelu dbali jen na podíl na trhu a ne na vývoj, to jsme opravdu viděli někdy od roku 2010.
Vzpomínám si, jak jsem někdy před deseti lety mluvil s jedním známým, povoláním doktorem, který si zrovna kupoval nový počítač a byl tak trochu poblouzněn marketingem Intelu a já mu vysvětloval, že se těch pět let vývoj prakticky zastavil a že jeho nový počítač bude výkonově skoro stejný, jako ten starý.
V Kalifornii je (zjednodusene) predmetem regulace i spotreba. A pak ta hra o vykonu na Watt dostava trosku jine rozmery... proste chcete v definovanem limitu prikonu vymacknout co mozna nejvic.
Celé je to trochu zjednodušené i když v důsledcích a v jádru pravdivé. Je ale potřeba taky dodat další věci: jednak není technologický dluh intelu až tak velký a i produktově se zase zvládli s AMD srovnat, poslední řady jsou tak zhruba nastejno, a za druhé je třeba si uvědomit, že Intel pořád má cca 75 % trhu s x86 procesory. Za minulý rok ztratil cca 3 % trhu nebo něco podobného. Není to málo ale není to ani nijak likvidační.
A taky velmi pochybuji, že na to OpenAI měla nějaký zásadní vliv. Byla to nevyužitá příležitost ale NVIDIA vzešla především ze svého know-how grafických karet, které mají k NPU technicky výrazně blíže. Intel takové know-how zdaleka neměl jakkoliv GPU vyrýběl. AMD to ostatně zazdilo dost podobně a přitom má s GPU zkušenosti mnohem větší.
Co bych viděl jako větší problém je obecně jak ze strany AMD tak ze strany Intelu totálně nezvládnutý nástup platformy ARM.