Článek se mi líbí tím, jak se snaží podívat se na pohled nezaujatě a ptá se hned tří expertů a snaží se dopátrat pravdy.
Bohužel se experti i redaktor dopouští řady elementárních chyb (například není pravda, že by GPT-3 nebylo trénováno i na rozhovorech; záměna statického modelu a dynamického prompt inženýrství; zapomenutí na fine tuning; experti jako by nereflektovali hybridní/kompozitní modely z posledních let; modely snadno dokáží generovat nová slova (kompozicí tokenů); není pravda, že nemáme definici vědomí (v psychologii naopak toto slovo označuje několik věcí a od experta bych čekal, že se vymezí k některé z nich a nebude klouzat z jedné do druhé a mnohé další). Ještě víc mi vadí, že ignorují když o něčem podobném jsme tady v Čechách psali před několika lety (např: https://blog.alphai.cz/zajimaji-vas-novinky-ze-sveta-ceske-ai/) a zcela ignorují naše české objevy a experimenty v této oblasti. Nezaznělo tu ani slovo o digitálních hormonech, práci s hybridními modely s epizodickou pamětí, detektory emocí, o tom jak si naše řešení dohledávají chybějící znalosti na Googlu a wiki. Jak diskutují s dětmi o demokracii; simulují filosofy, píší povídky (digitální spisovatel) i knihy (tento knižní veletrh). Jak diskutují s politiky (Matylda), uvádějí hudební festivaly (Molly) a mnohé další.
Prám se? Má to prosím nějaký konkrétní důvod?
Moucha je zvíře (hmyz), je řízena pudem a veškeré informace získá skrze genetickou paměť.
Nedokáže si uvědomit kdo je, neuvažuje o myšlence zda-lij je ve vesmíru sama či jestli existuje nějaká vyšší (duchovní)bytost než je ona sama.
Jediné co si dobře uvědomuje, tak je to , že jí někdo sežere , nebo, že dostane plácačkou po tlamě.
Je tu pár otázek, které umělou inteligenci pokládají na lopatky i proti 4 letému dítěti. Souvisí s tím, že AI neumí "extrapolovat ledacos", umí jen "interpolovat ledacos", tj. z nikdy nevystoupí z kruhu dodaných dat.
Nikdo se AI botů neptá:
- co jsi od včera udělal užitečného ?
- naučil ses něco nového ?
- chtěl bys pejska a jakého ?
Je to proto, že o fungování mozku, učení a vědomí máme stále příliš triviální představy.
Možná. Je to asi první chatbot, který by mohl zvládnout Turingův test. Velké části textu “chápe”, pamatuje si a dokáže generovat vlastní text, který má hlavu a patu.
Přesto občas napíše blbost, třeba, když zmiňuje rodinu. S Turingovým testem by to pomohlo, ale tady mi přišlo, že “nemyslí za sebe,” ale kopíruje nebo se inspiruje rozhovory lidí. Byť by se to dalo chápat i abstraktně a pak je to skutečně děsivé.
Osobně jsem skeptický k “plnému vědomí”, přišlo mi, že LaMDA občas neví, co říká/píše, ale občas se zdá, že to chápe naopak velmi dobře. Ještě pár let vývoje a Číslo 5 může být docela realistický film:)
Já si myslím, že má.
Osobně za vědomí považuji systém s pamětí, který reaguje na vstupy a je schopen se učit (nedělá pořád dokola to samé). Možná bych přidal, že je to systém schopný abstrakce, systém, který obsahuje model reality, ale není to dokonalá definice a v širším smyslu to splní každý systém s alespoň jednou vrstvou mezi vstupy a výstupy.