WEB CORPUS IN ONE CLICK Jan Pomikálek, Vít Suchomel NLP Centre Masaryk University 13 December 2011 OUTLINE • Text corpora • Sketch Engine • Creating web corpora • Web crawling • Character encoding detection • Language detection • Removing junk • De-duplication • Results TEXT CORPORA • Large collections of texts • Typically monolingual • Linguistically annotated (part-of-speech tags, lemmata) • Wide range of applications • Speech recognition • Machine translation • Language teaching and learning • Lexicography (creating dictionaries) USE CASE EXAMPLES • Looking up words CONCORDANCE LINES FOR “CORPUS” USE CASE EXAMPLES • Looking up words • Looking up patterns CQL: “AS AS A ” “AS AS A ” USE CASE EXAMPLES • Looking up words • Looking up patterns • Frequencies of words and patterns • Collocations “FAMILY TREE” USE CASE EXAMPLES • Looking up words • Looking up patterns • Frequencies of words and patterns • Collocations • Word sketches WORD SKETCHES FOR “TREE” WORD SKETCHES FOR “LECTURE (NOUN)” “TO DELIVER A LECTURE” SKETCH ENGINE • Corpus query system • 170 text corpora, 46 languages • Developed by Lexical Computing Ltd in cooperation with NLP Centre MU • Freely available to MU students and staff • http://ske.fi.muni.cz/ • Available to public for a fee • http://the.sketchengine.co.uk/ • Open source version (no word sketches) • NoSketch Engine • http://nlp.fi.muni.cz/trac/noske SKE USERS AT MU • 370 registered users, 130 active (at least 1 access in the last month) • 73,876 page views in November 2011 • Teaching (foreign languages, linguistics) • James Thomas (Faculty of Arts) • Jarmila Fictumová (Faculty of Arts) • Radomíra Bednářová (Faculty of Science) • Research projects • Corpus Pattern Analysis (NLP Centre, Patrick Hanks) • Verbalex (NLP Centre) SKE USERS WORLD-WIDE • ca. 100 organisations, 4000 users • Dictionary publishing houses • Oxford University Press (UK) • Cambridge University Press (UK) • Harper Collins (UK) • Amebis (Slovenia) • Research institutions • Institut voor Nederlandse Lexicologie (Netherlands) • Institute of the Estonian Language (Estonia) • University Pompeu Fabre (Spain) • Institut Libre Marie Haps (Belgium) TRADITIONAL CORPORA • From printed materials • Books, newspaper, magazines • Scanning, OCR • Controlled • We know what kind of texts are inside • Contents based on sociologic studies • British National Corpus (100M words, 1994) • Czech National Corpus (1300M words, 2010) • Disadvantages • Expensive • Time consuming • Limited size WEB CORPORA • Uncontrolled • We are not sure what kinds of texts we are downloading and at which amounts • Cheap (provided we have required technology) • Can be made really big (at least for some languages) • The only option for under-resourced languages TRADITIONAL VS. WEB CORPORA • Existing studies suggest that they do not differ by much • Serge Sharrof, 2006: Creating general-purpose corpora using automated search engine queries. • English web corpus vs. BNC • Similar word frequency lists • Comparison of text genres BNC I-EN (web corpus) Life 27% 14% Politics 19% 12% Business 8% 13% Natsci 4% 3% Appsci 7% 29% Socsci 17% 16% Arts 7% 2% Leisure 11% 11% MORE DATA = BETTER DATA • Rare language phenomena • More data = more occurrences of rare items corpus name BNC ukWaC ClueWeb09 (7%) size [tokens] 112 M 1,565 M 8,391 M nascent 95 1 344 12 283 effort 7 576 106 262 805 142 unbridled 75 814 7 228 hedonism 63 594 4 061 nascent effort 0 1 22 unbridled hedonism 0 2 14 Building web corpora (with one click) URLs Language detection model Charset detection model SpiderLing (web crawler) Text corpus (with near- duplicates) URLs Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Text corpus (with near- duplicates) Wikipedia language ID Wikipedia Corpus Factory URLs Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) Wikipedia language ID Wikipedia Corpus Factory Sample text URLs Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) Wikipedia language ID Wikipedia Corpus Factory Sample text URLs trigram.py training Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) Wikipedia language ID Wikipedia Corpus Factory Sample text URLs HTML pages (a few) trigram.py training Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) wget Wikipedia language ID Wikipedia Corpus Factory Sample text URLs HTML pages (a few) chared training trigram.py training Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) wget Wikipedia language ID Wikipedia Corpus Factory Sample text URLs HTML pages (a few) chared training trigram.py training Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) onion Text corpus wget Wikipedia language ID Wikipedia Corpus Factory Sample text URLs HTML pages (a few) chared training trigram.py training Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) onion Text corpus POS-tagger Annotated text corpus wget Wikipedia language ID Wikipedia Corpus Factory Sample text URLs HTML pages (a few) chared training trigram.py training Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) onion Text corpus POS-tagger Annotated text corpus wget CORPUS FACTORY Wikipedia language ID Wikipedia wget Wikipedia XML dump Wikipedia in plain text WikiExtractor.py Frequency list of words Tuples of words URLs wget + cleaning + de-duplication Smallish text corpus Wordlist maker N-gram generator Search engine (bing) 1. WIKIPEDIA XML DUMP Astronomie 10 5866929 2010-09-22T23:08:37Z ArthurBot 34408 Bot: [[en:Astronomy]] is a good article [[Soubor:USA.NM.VeryLargeArray.02.jpg|thumb|Mezi zařřízení, která se používají k astronomickým pozorováním, patřří i [[radioteleskop]]y.]] '''Astronomie''', [[řřeččtina|řřecky]] αστρονομία z άστρον (astron) hvěězda a νόμος (nomos) zákon, [[ččeština|ččesky]] též '''hvěězdářřství''', je [[věěda]], která se zabývá jevy za hranicemi [[Atmosféra Zeměě|zemské atmosféry]]. Zvláštěě tedy výzkumem [[vesmír|vesmírných]] [[těěleso|těěles]], jejich soustav, růůzných děějůů ve vesmíru i vesmírem jako celkem. == Historie astronomie == Astronomie se podobněě jako další věědy začčala rozvíjet ve [[starověěk]]u. První se z astronomie rozvíjela [[astrometrie]], zabývající se měěřřením [[poloha| poloh]] [[hvěězda|hvěězd]] a [[planeta|planet]] na obloze. Tato oblast astronomie měěla velký význam pro [[navigace|navigaci]]. Podstatnou ččástí astrometrie je [[sférická astronomie]] sloužící k popisu poloh objektůů na [[nebeská sféra|nebeské sféřře]], zavádí [[souřřadnice]] a popisuje významné [[křřivka|křřivky]] a [[bod]]y na nebeské sféřře. Pojmy ze sférické astronomie se také používají přři [[měěřření ččasu]]. Další oblastí astronomie, která se rozvinula, byla [[nebeská mechanika]]. Zabývá se [[Mechanický pohyb|pohybem]] [[těěleso|těěles]] v [[gravitačční pole| gravitaččním poli]], napřříklad [[planeta|planet]] ve [[Slunečční soustava|slunečční soustavěě]]. Základem nebeské mechaniky jsou práce [[Johannes Kepler| Keplera]] a [[Isaac Newton|Newtona]]. 2. WIKIPEDIA IN PLAIN TEXT Astronomie. Astronomie, řřecky αστρονομία z άστρον (astron) hvěězda a νόμος (nomos) zákon, ččesky též hvěězdářřství, je věěda, která se zabývá jevy za hranicemi zemské atmosféry. Zvláštěě tedy výzkumem vesmírných těěles, jejich soustav, růůzných děějůů ve vesmíru i vesmírem jako celkem. Historie astronomie. Astronomie se podobněě jako další věědy začčala rozvíjet ve starověěku. První se z astronomie rozvíjela astrometrie, zabývající se měěřřením poloh hvěězd a planet na obloze. Tato oblast astronomie měěla velký význam pro navigaci. Podstatnou ččástí astrometrie je sférická astronomie sloužící k popisu poloh objektůů na nebeské sféřře, zavádí souřřadnice a popisuje významné křřivky a body na nebeské sféřře. Pojmy ze sférické astronomie se také používají přři měěřření ččasu. Další oblastí astronomie, která se rozvinula, byla nebeská mechanika. Zabývá se pohybem těěles v gravitaččním poli, napřříklad planet ve slunečční soustavěě. Základem nebeské mechaniky jsou práce Keplera a Newtona. Aristotelés ve svém díle "O nebi" z roku 340 přř. n. l. dokázal, že tvar Zeměě musí být kulatý, jelikož stín Zeměě na Měěsíci je přři zatměění vždy kulatý, což by přři plochém tvaru Zeměě nebylo možné. ŘŘekové také zjistili, že pokud sledujeme Polárku z jižněějšího místa na Zemi, jeví se nám níže nad obzorem než pro pozorovatele ze severu, kterému se bude její poloha na obloze jevit výše. Aristotelés dále urččil poloměěr Zeměě, který ale odhadl na dvojnásobek skuteččného poloměěru. V aristotelovském modelu Zeměě stojí a Měěsíc se Sluncem a hvěězdami krouží kolem ní, a to po kruhových drahách. Myšlenky Aristotelovy rozvinul ve 2. století našeho letopoččtu Ptolemaios, který také stavěěl Zemi do střředu a další objekty nechal obíhat kolem ní ve sférách, první byla sféra Měěsíce, dále sféry Merkuru, Venuše, Slunce, Marsu, Jupitera, Saturna a sféra stálic (hvěězd, jež byly považovány za nehybné, jak to plyne z názvu, měěly se pohybovat jen společčněě s oblohou). Tento model poměěrněě vyhovoval polohám těěles na obloze. Roku 1514 navrhl Mikuláš Koperník nový model, ve kterém bylo ve střředu soustavy Slunce a planety obíhaly kolem něěj po kruhových drahách, setkal se ale s problémy přři pozorováních, objekty se nenacházely na správných souřřadnicích. Roku 1609 zkonstruoval Galileo Galilei dalekohled, s jehož pomocí objevil ččtyřři měěsíce obíhající kolem planety Jupiter, a tím dokázal Koperníkovu teorii o Slunci ve střředu a planetách kroužících kolem. Johannes Kepler zaměěnil kruhové dráhy planet za eliptické, ččímž bylo dosaženo souladu s pozorovánými polohami těěles. V roce 1687 vydal sir Isaac Newton knihu Philosophiae Naturalis Principia Mathematica o poloze těěses v prostoru a ččase a zákon obecné přřitažlivosti, podle něěhož jsou k soběě těělesa vázana gravitací, která závisí na hmotnosti těěles a na jejich vzdálenosti. Z gravitaččního zákona vychází eliptický pohyb planet. Roku 1929 studoval Edwin Hubble daleké galaxie, zjistil rudý posuv, který se zvěětšuje se vzdáleností, to byl důůkaz o rozpínání vesmíru. Fakt, že se od sebe objekty vzdalují, naznaččuje, že něěkdy v minulosti byly objekty velmi blízko od sebe, tím se zrodily myšlenky o velkém třřesku, místěě a ččase, kdy byl vesmír nekoneččněě malý a hustý. V letech 1905–1915 napsal Albert Einstein teorii relativity – speciální, ve které zavedl koneččnou rychlost svěětla a obecnou relativitu o gravitaci, ččase a prostoru ve velkých rozměěrech. Na začčátku 20. století vznikla kvantová teorie o chování elementárních ččástic. 3. FREQUENCY LIST OF WORDS 1 a 1188065 2 v 907365 3 se 751213 4 na 578619 5 je 502439 6 z 288445 7 s 256238 8 do 248581 9 V 222782 10 byl 198371 11 roce 181944 12 ve 177070 13 i 170934 14 jako 165863 15 o 165078 ... 1000 informace 3238 1001 státy 3233 1002 vzhledem 3229 1003 minulosti 3218 1004 největším 3215 1005 vychází 3213 1006 podobně 3213 1007 řešení 3206 ... 5993 tabulky 649 5994 Bill 649 5995 živočichů 649 5996 vrcholy 649 5997 (za 649 5998 farnosti 649 5999 vítězem 649 4. TUPLES OF WORDS místem určené veřejné vojáci Enterprise provozu. přinesla teprve hodnocení kvalitní považováno vystupoval Nejstarší hlavu pohlaví ukončení francouzskou procesu scény snadno nearabské náboženství). pravý přechodu Francii mužů náměstí. závody Oblast doprava. proběhl zahrál Alois kříže příběhu ruce konstrukce letounu rekonstrukce rekord 1907 Vznik povýšen zemí. dřívější miliónů nepříliš výšky 1902 I., verzí členové hvězdná studia vyslal °C budovu grafické kolonie počasí 5. URLS místem určené veřejné vojáci http://sporkova.spytech.cz/ApDownload.php? id=10318 http://bunkrr.blog.cz/0807 http://www.nacesty.cz/last-minute/ ZIEL=SSA&FFT=1 http://vrchovsky.blog.cz/ http://www.servingthenations.org/article.asp? ArticleID=152 http://druidova.mysteria.cz/ http://radoskydancer.wordpress.com/ http://nwo.corpx.eu/ http://www.aifp.cz/cz/clanky.php?kat=10 ... Enterprise provozu. přinesla teprve http://alave.cz/sitove-prvky-bezdratove:c:668 http://www.cs.hukol.net/themenreihe.p?c=Firmy http://www.cs.hukol.net/themenreihe.p?c=Syst %C3%A9mov%C3%BD%20software http://www.root.cz/clanky/stalo-se- tyden-13-04/ ... Wikipedia language ID Wikipedia Corpus Factory Sample text URLs HTML pages (a few) chared training trigram.py training Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) onion Text corpus POS-tagger Annotated text corpus wget LANGUAGE DETECTION / FILTERING • Trigram class • http://code.activestate.com/recipes/326576-language-detection-using- character-trigrams/ • Similarity score based on frequencies of 3-grams of characters >>> import Trigram >>> reference_en = Trigram('/path/to/reference/text/english') >>> reference_de = Trigram('/path/to/reference/text/german') >>> unknown = Trigram('url://pointing/to/unknown/text') >>> unknown.similarity(reference_de) 0.4 >>> unknown.similarity(reference_en) 0.95 Wikipedia language ID Wikipedia Corpus Factory Sample text URLs HTML pages (a few) chared training trigram.py training Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) onion Text corpus POS-tagger Annotated text corpus wget CHARACTER ENCODING DETECTION • Bytes • 70 c5 99 c3 ad 6c 69 c5 a1 20 c5 be 6c 75 c5 a5 6f 75 c4 8d 6b c3 bd 20 6b c5 af c5 88 20 70 c4 9b 6c 20 c4 8f c3 a1 62 65 6c 73 6b c3 a9 20 c3 b3 64 79 • In windows-1250 • příliš ĹľluĹĄouÄŤkĂ˝ kĹŻĹ ĂşpÄ›l ďábelskĂ© Ăłdy • In iso-8859-2 • pĹĂ­liĹĄ ĹžluĹĽouÄkĂ˝ kĹŻĹ ĂşpÄl ÄĂĄbelskĂŠ Ăłdy • In utf-8 • příliš žluťoučký kůň úpěl ďábelské ódy WEB PAGE ENCODING SPECIFICATION • Meta tags • HTTP protocol 200 OK Content-Type: text/html; charset=UTF-8 • Not always available • Not always correct • Guessing from text is more reliable AUTOMATIC ENCODING DETECTION • Byte frequency vector for the input text • 3-grams of bytes • Compare with model vectors (scalar product) iso-8859-1 koi8-r utf-8 TRAINING DATA • Take ca. 1000 web pages with texts in the target language (Corpus Factory) • Extract encoding information from meta tags • Mostly correct; errors “cancelled out” by statistical processing • Discard pages for which encoding cannot be determined • Usage frequency of encodings for the target language • E.g. for Czech: utf-8: 60.2%, windows-1250: 32.2%, iso-8859-2: 6.0% • Ignore encodings with freq < 0.5% • Convert all pages to all frequently used encodings • To balance training data • Create models EVALUATION • 5-fold cross-validation on training data CzechCzech EnglishEnglish GermanGerman GreekGreek ItalianItalian NorwegianNorwegian freq accuracy freq accuracy freq accuracy freq accuracy freq accuracy freq accuracy utf-8 60,2% 100,0% 56,9% 95,8% 54,6% 100,0% 68,5% 100,0% 54,2% 100,0% 63,0% 100,0% windows-1250 32,2% 100,0% 0,3% n/a 0,1% n/a 0,2% n/a 0,0% n/a 0,1% n/a windows-1252 0,4% n/a 9,4% 97,5% 6,5% 97,3% 3,1% 75,8% 7,1% 95,7% 7,0% 97,4% windows-1253 0,0% n/a 0,0% n/a 0,0% n/a 14,3% 99,3% 0,0% n/a 0,0% n/a iso-8859-1 1,0% 89,5% 32,8% 90,9% 37,1% 85,8% 1,7% 71,2% 37,9% 85,1% 29,3% 88,2% iso-8859-2 6,0% 99,6% 0,0% n/a 0,1% n/a 0,0% n/a 0,1% n/a 0,1% n/a iso-8859-7 0,0% n/a 0,0% n/a 0,0% n/a 12,0% 97,2% 0,0% n/a 0,0% n/a iso-8859-15 0,0% n/a 0,0% n/a 1,2% 85,6% 0,0% n/a 0,0% n/a 0,4% n/a training docs 801801 668668 773773 879879 771771 740740 w. avg accuracy 99,2%99,2% 93,5%93,5% 93,7%93,7% 97,9%97,9% 93,3%93,3% 95,7%95,7% IMPLEMENTATION • In Python • Open source (BSD License) • Available from: http://code.google.com/p/chared/ • Online demo: http://nlp.fi.muni.cz/projects/chared/ • Currently supports 51 languages • http://code.google.com/p/chared/source/browse/#svn%2Ftrunk%2Fchared%2Fmodels Wikipedia language ID Wikipedia Corpus Factory Sample text URLs HTML pages (a few) chared training trigram.py training Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) onion Text corpus POS-tagger Annotated text corpus wget BOILERPLATE • The content outside of the main body of a page, e.g. • Headers, footers • Navigation links • Copyright notices • Advertisements • Does not contain full sentences • Mostly noise (for text corpora) • Inflates frequency of some terms, such as home, search, print 52 53 JUSTEXT • Boilerplate cleaning algorithm • Operates in 3 basic steps: 1. Segmentation - a page is split into text blocks (segments) 2. Context-free classification - preliminary class assigned to each segment (good, bad, near-good, short) • Length • Number of hyperlinks • Number of function (stoplist) words 3. Context-sensitive classification - final class assigned (good, bad) 54 JUSTEXT: TEXT BLOCK CLASSIFICATION BAD SHORT BAD SHORT NEAR-GOOD BAD SHORT SHORT GOOD SHORT GOOD SHORT NEAR-GOOD SHORT BAD NEAR-GOOD document start document end ? ? BAD BAD BAD BAD BAD BAD BAD BAD GOOD GOOD GOOD GOOD GOOD BAD BAD BAD 55 JUSTEXT EVALUATION • Data collections • Canola (KrdWrd team, http://krdwrd.org/) • CleanEval • L3S-GN1 (C. Kohlschütter, news articles) • Algorithms • Victor (CRF classifier; Marek, Pecina, Spousta; CleanEval winner) • NCLEANER / StupidOS (n-gram language model; S. Evert) • boilerpipe (C4.8-based decision trees; C. Kohlschütter) • BTE (tag density; Finn et al; better than Victor on CleanEval) 56 JUSTEXT: EVALUATION RESULTS • On all collections on par with the best algorithms or even slightly better 57 DOCUMENT FRAGMENTATION • Boilerplate cleaning algorithms with too fine-grained segmentation tend to have problems with fragmented output • Example - Victor: 1. A few days ago, I mentioned that I’d begun playing on one of the older text- based MMOGs, Gemstone IV. Many of you 2. commented on the Loading forums 3. about your own old experiences with text and how they compared with my own. ... Gold standard Algorithm 1 Algorithm 2 58 EVALUATION OF FRAGMENTATION ON CANOLA avg fragment length median fragment length avg fragments per document perfect cleaning 1315,1 279 6,98 BTE 11095,6 7611 1,00 boilerpipe 671,2 68 13,81 Victor 637,9 126 14,13 jusText 2304,3 794 3,88 59 AVAILABILITY OF JUSTEXT • In Python • Open source (BSD License) • http://code.google.com/p/justext/ • 563 downloads since March 2011 • Online demo: http://nlp.fi.muni.cz/projects/justext/ 60 Wikipedia language ID Wikipedia Corpus Factory Sample text URLs HTML pages (a few) chared training trigram.py training Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) onion Text corpus POS-tagger Annotated text corpus wget SPIDERLING • In-house created web crawler for text corpora • Why not use existing software? • Specific requirements • Robustness (must handle terabyte downloads) • Simple crawlers • Not robust enough • Complex robust crawlers (e.g. Heritrix) • Difficult to customize SPIDERLING • Web crawler which focuses on text-rich sources • Written in Python • Emphasis on simplicity • Asynchronous communication with servers • Main modules (subprocesses) • Evaluator • Downloader • Data processors Text corpus (with near-duplicates) Document processor Document processor Document processor Evaluator Internet Starting URLs Downloader DOCUMENT PROCESSORS • Character encoding detection (chared) • Language filters (trigram.py) • Removing boilerplate (jusText) YIELD RATE • yield rate = final corpus size / downloaded data size • Yield rate stats for internet domains (on the fly) • Prune bad domains domain downloaded data clean data yield rate www.prozakladnu.cz 198.7 MB 151.3 MB 76,4% www.astrologie.cz 138.1 MB 97.8 MB 70,9% slovnik.online-clanky.cz 17.2 MB 11.1 MB 64,5% www.darius.cz 13.8 MB 8.5 MB 61,8% www.pavlat-znalec.cz 12.7 MB 7.7 MB 60,8% ... stanpilot.rajce.idnes.cz 12.6 MB 0.2 MB 1,4% spojene-arabske-emiraty.orbion.cz 10.6 MB 0.1 MB 1,2% sof.rock.cz 11.2 MB 0.1 MB 1,1% YIELD RATES FOR HERITRIX CRAWLED DATA YIELD RATES FOR SPIDERLING CRAWLED DATA YIELD RATE THRESHOLD • Yield rate threshold is a function of the number of downloaded documents: t(n) = 0.01⋅(log10(n) - 1) # of documents yr threshold 10 0% 100 1% 1000 2% 10000 3% CRAWLING SPEED (RAW HTML DATA) 50 100 150 200 250 300 time (hours) 1 2 3 4 5 MBofrawHTMLdatapersecond Japanese Russian Turkish YIELD RATE DEVELOPMENT 50 100 150 200 250 300 time (hours) 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 averageyieldrate Japanese Russian Turkish CRAWLING SPEED (CLEAN DATA) 50 100 150 200 250 300 time (hours) 0 200 400 600 800 1000 MBofcleantextperhour Japanese Russian Turkish Wikipedia language ID Wikipedia Corpus Factory Sample text URLs HTML pages (a few) chared training trigram.py training Language detection model Charset detection model SpiderLing (web crawler) trigram.pychared jusText Search engine (bing) Text corpus (with near- duplicates) onion Text corpus POS-tagger Annotated text corpus wget REMOVING DUPLICATE AND NEAR-DUPLICATE DATA • Exact duplicates - easy • Near duplicates - difficult 73 aa7d66733dbe aa7d66733dbe aa7d66733dbe d87a79bfe197 KNOWN ALGORITHMS • Mostly from IR field (web search engines) • Broder’s shingling algorithm • Charikar’s algorithm • Fail to detect similarities at intermediate level (say 50-80%) • Not a problem for search engines (a feature rather than a bug) • For text corpora, all duplicates are problematic • It seems that in web collections, document pairs at an intermediate level of similarity are much more frequent than document pairs at a high level of similarity 74 SIMILAR DOCUMENTS IN CLUEWEB09 75 Experiment performed on a small sample of ClueWeb09: 21,776 Web pages from 2,722 different domains. ONION (DE-DUPLICATION PROGRAM) • N-gram based • We don’t need to know which pairs of documents are near-duplicates • It suffices to make sure that the text we are adding to a corpus is not already there • Keep a set of n-grams already present in a corpus • A new document is added to the corpus only if it doesn’t contain too many ngrams already contained in the corpus • The set of n-grams may grow out of RAM capacity • Precompute list of duplicate n-grams (with 2 or more occurrences in the whole corpus); usually less than 10% of all n-grams (n >= 7) • Prune unique n-grams 76 6-grams for “what can we do with a drunken sailor”: (what, can, we, do, with, a) (can, we, do, with, a, drunken) (we, do, with, a, drunken sailor) ONION: TECHNICAL DETAILS • Finding duplicate n-grams -- standard external sort • Storing 64-bit hashes of n-grams (rather than raw n-grams) • Hashes stored in a Judy array -- a complex memory efficient associative array data structure • Judy1 - integer->Boolean (for representing sets) • RAM requirements as low as 6 bytes per hash 77 ONION: EVALUATION 78 corpus name enTenTen itTenTen deTenTen ClueWeb09 (7%) language English Italian German English words before de-duplication* 4.09 bil. 4.22 bil. 4.13 bil. 8.98 bil. words after de-duplication 3.15 bil. (76.9%) 2.59 bil. (61.5%) 2.44 bil. (59.1%) 7.28 bil. (81.0%) dupl. 10-grams before de-dupl. 528 mil. 662 mil. 625 mil. 913 mil. dupl. 10-grams after de-dupl. 41 mil. (7.7%) 66 mil. (10.0%) 36 mil. (5.8%) 97 mil. (10.6%) * after language filtering, removing boilerplate and exact duplicates ONION: SCALABILITY • Used for de-duplication of English ClueWeb09 (1bn web pages) • Input size 920 GB (more than 100bn words) • 72bn words after de-duplication • aura.fi.muni.cz (8x 8-core Intel Xeon 2.27GHz, 440 GB RAM) • ca 5 days on a single CPU • Required 148 GB RAM 79 ONION: AVAILABILITY • In C • Open source (BSD License) • http://code.google.com/p/onion/ RESULTS Language Tokens Time Czech 5.8G ? Tajik 32.5M 3.4 days Russian 20.2G 12.5 days Japan 12-18G 22.5 days (+) Turkish 5-10G 6.5 days (+) FUTURE WORK • Distinguishing between similar languages (e.g. Czech vs. Slovak) • What kind of data is there in the web corpora? • Document clustering • Manual inspection of the clusters • Corpus evaluation Thank you! Questions?