Vytvorený nový rekord v rýchlosti triedenia 100 TB
Diskusia k článku: Vytvorený nový rekord v rýchlosti triedenia 100 TB
Prispievajte do diskusií ako
prihlásený užívateľ.
Komentár, na ktorý odpovedáte:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Re: dsfsd
Od: gandor
|
Pridané:
2014-10-14 10:59:27
By si sa cudoval, ake mnozstvo algoritmov potrebuje najskvor data zotriedit.
Ked ideme od takych tych jednoduchych/naivnych, tak napriklad vymazanie duplicit sa efektivne robi so zotriedenim.
Dalej vyhladavanie v datach nad zotriedenymi datami je asymptoticky rychlejsie (log N), ako "linear seach" - t.z. nehladam informaciu 10 sekund, ale mam ju prakticky okamzite...
K takym tym zlozitejsim pripadom patria greedy search na vsetky prichute alebo rozne statisticke analyzi dat.
A samozrejme, cim viac tych dat je, tak tym efektivnejsie s nimi musim vediet narabat, aby som ich vedel aspon nejak pouzit... Takze ked videme do konkretnych prikladov, tak napriklad na to, aby facebook mohol mat o 2% menej serverov...
|