V zasade mi to pripada pomerne elegantni. Semnaticke filtry maji bohuzel uspesnost spis prachbidnou nez dobrou a navic je potreba veskera data prenest a pak jeste plytvat vlastni vypocetni kapacitou na analyzu.
Z meho pohledu je efektivni pouzivat nasledujici retezec:
- blacklisty
- SPF
- whitelisty
- greylisting (velmi ucinne)
- semanticka analyza
- antivir
Je jen otazka, zda whitelist nema byt pred blacklistem, ciste proto, ze i velkym SMTP serverum, ktere dorucuji korektni postu se obcas stane ze zkonci na nejakem blacklistu.
Honza
Tim se nic nemeni na tom, ze cely clanek je trochu blabol.
Ukzajue se toitz narprliad, ze pri ctnei txetu staci, josu-li zchaoavna pcaceotni a knocvoa psiemna - na poardi ottsanich pirlsi nezelazei.
Vyse uvedeny text je (i kdyz ne uplne hladce) pro cloveka stale citelny. A to me utvrzuje v presvedceni, ze od programu, schopnych dostatecne dobre analyzovat "nepratelsky" text jsme jeste opravdu hodne daleko - a to nejen od tech, ktere se dokonce budou zabyvat semantickou strankou textu, ale dokonce i od tech zalozenych na rozpoznavani I<1i(0\/Y(H 510\/...