To ne, ale není problém obrázek vytisknout. No a v dnešní době má přece každý multifunkční tiskárnu kombinovanou se skenerem a k tomu nepochybně nainstalovaný balík programů, které naskenovaný obraz mohou prohnat OCRkem. Pak už stačí jednoduchá konverze do správného kódování (třeba win-1250), opravit překlep, zmáčknout PrintScr, spustit malování, vložit, oříznout a uložit jako JPEG, který následně uploadovat na Uložto poslat na něj link. Pro běžného uživatele otázka pár minut.
Výhoda ISO2 je v tom, že dokument má tolik znaků, kolik je v něm písmen. Kdežto dokument v UTF-8 má počet znaků proměnlivý dle toho, jaká písmena se v něm používají. Tedy nelze říci rychle, když jeden dokument má 111205 znaků a druhý 111198 znaků, který z těchto dokumentů obsahuje více textu (je nutné dokumenty zdlouhavě procházet znak po znaku)
Celé Windows používají unicode defaultně už drahnou dobu. Nastuduj si to.
http://msdn.microsoft.com/en-us/library/windows/desktop/dd374081(v=vs.85).aspx
Nikdo vám nebrání UTF-8 použít v takovémto extrémním případě, jaký uvádíte. Nicméně nevidím jediný důvod, proč by mělo být UTF-8 násilím cpáno na desktopy běžných uživatelů (případně pro komunikaci s nimi, viz ten gmail), kteří prostě kombinovat řadu jazyků v jednom textu nepotřebují, což je obávám se, hodně víc než těch 90%. Jen pro lenost a pohodlí toho zbytku.
Nehledě k tomu, že ty mezinárodní firmy vesměs jedou na windows a UTF-8 tam nejspíš dlouho mít nebudou, jen nějaký microsoftí bastl.
A, pan tupec se projevuje dale. Pro tupce, pokud nekam vkladam cizojazycnou citaci, tak ocekavam, ze si bude ctenar chcit dohledat podrobnosti, tudiz pokud ji tam ja dobytek (respektive vy dobytek) flakne jako obrazek, tak si dohleda leda kulovy, vubec nemluve o nemoznosti jakehokoli formatovani. Takovou hovadinu jako davat text do obrazku fakt muze vymejslet leda retard.
Apropos, to ze nemate nainstalovane fonty je jen vas problem.
ty vole ten se mi snad zdá! To jako fakt ještě dneska nekdo pouziva neco jinyho nez UTF ? Jo... zrovna dneska mi dala pohulit jedna skvela aplikace z roku raz-dva vyuzivajic nekolikrate upgradovane mysql... Nakonec si to dalo rict a na tom UTFku je proste takova pohoda... Ten uzivatel by tady mel hodit adresu abysme mu tam zrovna mohli poslat psychinu.
Zrovna tihle 3 jdou i v ISO-...-2, protoze dederoni byli ve vychodnim bloku. Ale to na veci nic nemeni, prijde naky Francouz a je to. Nejlepsi duvody tu snesl Marek Turnovec, k tomu jeste dodam ze obrazek je naprosty nesmysl uz quli tomu ze se v nem asi tezko udela spravny zalamovani radku pri zmene sirky stranky nebo velikosti pisma. Proste nesmysl.
Pokud se bavíme o SQL databázích, tak každá aspoň trochu rozumná se s tím v pohodě vyrovná. Samozřejmě v nějakých bastlech to problémy dělat může.
Na vícejazyčnost nemusí být žádní grafomanové, stačí, když někdo potřebuje do systému prostě zadat cizí jméno (zákazník, zaměstnanec, firma, ...).
Chápu, že lidem programujícím v C a používajícím základní knihovny (strlen()) může dělat UTF-8 problémy, ale jinak je jeho univerzálnost velmi příjemná.
Tak to je spravna hovadina :)
No, ja uz jsem v zivote par realnych prikladu pouziti UTF8 videl, zde jen jeden priklad za mnohe: Webova aplikace vyjede seznam jmen, jeden bude Polak, druhy Cech, treti Nemec. Vsichni ve jmene diakritiku. Jsem zvedav, jak se s tim poperes. Nebo je to taky makaronstina? Budes u kazdeho mit vlajecky?
Nebo v mezinarodni firme, aplikace do ktere muzou ruzni uzivatele psat poznamky. Dovolime to s diakritikou jenom Nemcum, nebo mozna by si i cesky uzivatel chtel do poznamky ulozit zlutouckeho konicka?
No, nedá mi to, taky se asi zapojím do flajmu. S Vašimi argumenty prostě nemohu souhlasit.
Co má mailová komunikace společná s programováním? Vy programujete v Outlooku? Nebo píšete maily v Basicu? Většina moderních jazyků snad s UTF nemá problém...
Ad strojové zpracování textů v UTF - programuji v PHP, Pythonu - někdy s využitím třeba MySQL - nějak jsem si problémů v poslední době nevšiml. Spíš spoustu problémů jsem si ušetřil od těch dob, co dělám všechno rovnou v UTF-8.
Ad přehrávače videa - jak nerozumí? Jak má jinak přehrával poznat, jestli jsou titulky v ISO8859-2 nebo CP1250? Nebo třeba v něčem úplně jiném? Formáty na titulky obvykle nemají způsob, jak říct, v jakém jsou kódování. Přijde mi nejjednodušší, mít je všechny v UTF-8.
A ad programy, co neumí pracovat se soubory s názvy v UTF-8 - no, to občas existují i programy, které obecně mají problémy, když v názvu souborů je něco jiného než ASCII. Ale otázka je, proč takové programy používat?
Já nevím, co někteří lidé dělali - UTF-8 je tady již pěkných pár let a už snad možná už dokonce od konce 90. let se o UTF-8 hovořilo jako o univerzálním řešení a o tom, že se na toto kódování bude přecházet. Co to je za programátory, že se na to za těch 10 let nedokázali připravit? I když možná chápu, pokud k tomu mají stejný přístup, jako Vy...
Jistě, kvůli vám budu při překladu znění směrnic EU vkládat obrázky a vytvářet extra stránky - jednoduše protože Mr. A.S. Pergillovi je to fuk a je to pro něj makarónština. Ne, vložit jako obrázek ji opravdu nestačí, protože to nelze indexovat a nelze v tom vyhledávat, vy ignorante. Co si umíte představit, je mi úplně jedno, jen doufám, že v té akademické sféře uklízíte maximálně hajzlíky a tyhle vaše žvásty se sem dostaly jen proto, že máte jakožto kosmetička podlahových krytin klíče od počítačové učebny.
P.S. Jestli se vám zobrazují obdélníčky, tak si zkuste nainstalovat nějaký normální font. Ale vlastně proč, že... jiné jazyky neexistují, co je za humnama nás nezajímá.
Vícejazyčné stránky stejně dobře mohou být separovány (většinou ťuk na vlaječku a změna jazyka).
Pokud máte tendence psát makarónštinou (=míchat slova z různých jazyků), tak vězte, že je to nevkus (minimálně). Pokud máte potřebu vložit cizojazyčnou citaci, tak předpokládám, že ji nebudete co pár dnů editovat, a pak opravdu stačí vložit jako obrázek.
Nehledě k tomu, že řada systémů vám stejně místo naprosté většiny znaků UTF-8 zobrazuje jen obdélníčky (MS office, Open Office Org a mnoho dalších), takže vám copy-pastování k ničemu není.
Vyjma webových slovníků a překladačů si opravdu nedovedu představit stránky, které by musely mít kódování UTF-8. Pravděpodobně proto nám ho cpou násilím, protože kdyby to uživatelé potřebovali, tak by na to spontánně přešli, jakmile se to objevilo.
Ono stačí, když vám to rozdrbe databázi s pevnou délkou znaků (pokud jsou v ní např. jména a příjmení s nabodeníčky). Minimálně to znamená spoustu programování navíc, a naprosto zbytečného.
A to vše jen proto, aby bylo více uspokojeno pár pochybých grafomanů, kteří se ukájejí copy-pastováním diskuzí na webu citáty z různojazyčných zdrojů.
A, bohužel, některé interprety a překladače padají i tehdy, když je tam čeština zakódovaná do UTF-8 jen v komentářích (takže zpět někam do začátku 80. let a psát komentáře "cesky").
Jasně. Taky se rád drbete levou nohou za pravým uchem? A prosím vás, už opusťte iDnes, bylo to zde uvedeno pouze jako příklad, jak to dopadne, když se nepodporuje unicode. Já potřebuju běžně na jedné stránce mít text z 5-6 jazyků, normálně uložený tak, aby se v něm dalo vyhledávat. Ne si pak psát ještě další naprosto debilní nesmyslný hack, který bude v databázi místo zadaného textu vyhledávat entity. Stejně tak s ním potřebuju pracovat v dokumentech atd. Ne si ho tam cpát v entitách nebo jako blob v obrázkách, jak radí jiný podobně postižený kolega.
Co se tyce programu a UTF-8, tak jeden z problemu je v tom, ze zatimco u 8bit kodovani je libovolna bytova sekvence korektni retezec znaku (nepocitam-li pripadne problemy s ridicimi znaky, napr. znaky 128-160 v ISO-8859-x), u UTF-8 jsou sekvence, ktere nejsou validni (nejde je dekodovat na unicode znaky). Pokud se takove retezce vyskytnou ve vstupnim textu (napr. z duvodu ztraty informace ci dezinterpretace kodovani), tak mnoho programu na tom tragicky selze.
No to jste vymyslel peknou pitomost s tema obrazkama/separatnima stankama. K cemu takovy nesmysl? K cemu vubec vsecky ty kodovani? Jedina vyhoda nejakyho toho ISO-8859-2 je ze je to pred kompresi kratsi, stoji to za to? Stoji to vubec za neco?
Vicejazycnych stranek sice neni tolik, ale par jich je. Nejlepsi by bylo kdyby existovalo jenom jedno univerzalni kodovani, ubylo by hafo problemu.
No to je pěkná blbost, sám jsem migroval všechny služby v databázích i s interfacem na UTF-8 již před 12ti lety.
Pokud se vám nelíbí proměnná délka dejte si to do UTF-16.
Takovej příspěvek může napsat akorát diletant v oboru IT.
Nepodpora UTF-8 v některých zařízeních je jenom amatérismus dodavatele zařízení.
A na webových stránkách není problém krátké úseky v odlišném jazyce (= s odlišným kódováním) vložit jako obrázky a pokud je to delší, tak vyrobit separátní stránky s různým kódováním.
Aha... Noooo, tomu říkám "řešení". Vy si prosím vás podejte ruku s Hejlem, s nesvéprávnými jedinci nemá diskuse smysl.
Programovací systémy mají problém s UTF-8 ?!? Co to proboha používáte? Vzhledem k tomu, že všechny ASCII znaky jsou v UTF-8 na svých místech, tak opravdu nerozumím, jak s tímto může mít jakýkoliv kompilátor problém... Pokud je UTF-8 znak uvnitř řetězce nebo komentáře, tak s tím problém být nemůže, pokud tedy není program, co to zpracovává, totálně "zprasený". Stejně tak mi není mi známo, že UTF-8 vedlo k vnášení zakázaných znaků - uveďtě příklad.
Pokud nepoužíváte šmejdy typu Word, tak není absolutně problém vytvořit text, jehož části budou kódovány různě (třeba TeX si s tím poradí).
Druhá věc je, že přes 90 procent uživatelů asi takovéto kombinované texty nepoužívá buď vůbec, nebo jen naprosto výjimečně. Tak nevidím důvod, aby se přizpůsobovali té zhruba desetině, která to používá (a to možná to procento potřebných nadhodnocuji, protože angličtina a čeština se v ISO-2 snesou bez kolizí).
A na webových stránkách není problém krátké úseky v odlišném jazyce (= s odlišným kódováním) vložit jako obrázky a pokud je to delší, tak vyrobit separátní stránky s různým kódováním.
A, mimochodem, řada zahraničních fór není stejně schopna akceptovat tu češtinu ani v UTF-8, takže pokud tam chcete vložit odkaz na českého autora (třeba i anglicky píšícího, nebo tvořícího např. grafiku) bez prznění jeho jména, tak vám celé slavné UTF-8 stejně nepomůže, takže je stejně k ničemu, protože nezajišťuje to, co by teoreticky zajišťovat mělo.
Nejlepší je se zakopat na svém zaprděném českém dvorku a zásadově odmítnout "šity", protože my je přece nepotřebujem. Titulky videa neprzní UTF-8, ale šitózní přehrávač, který UTF-8 neumí. Jinak, už jste zkusil pracovat s texty z více jazyků, stačí třeba na blbých webových stránkách? Běžte si pastnout něco v azbuce do diskusí na iDnesu. (Aha, já zapomněl, jediným světovým jazykem je čeština, tak vlastně na co... :P)
Protože je to totální šit: Jedno písmeno může být uloženo v jednom nebo několika bajtech. Dělá to obrovské problémy při jakémkoli strojovém zpracování textu. Není to kompatibilní s některými programovacími systémy = musí se zdroják pořízený v UTF-8 konvertovat do ISO2 nebo nějakého jiného opravdového standardu. Nerozumí si to s přehrávači videa (prznění titulků). Některé programy nedokáží pracovat se soubory, které mají názvy kódované v UTF-8, protože to do těch názvů vnáší "zakázané" znaky.
Neexistuje písmeno s českou diakritikou, které by nebylo zahrnuto pod standard ISO2 (respektive ISO-8859-2), takže není jediný důvod proč používat kódování jiné - nepřináší to naprosto žádný benefit.
chválím Google za to, že použil tento nekompromisní přístup pro prosazení UTF-8 kódování, ještě by podobnou akci mohli udělat centrum a seznam a češi by si snad již konečně uvědomili, jaké je století a přestali používat stařičké a nepraktické kódování ISO2 a chybném kódování win1250 nemluvě, UTF snad již umí všechny normální programy, tak proč jej nepoužívat?