id
stringlengths
1
4
tokens
list
ner_tags
list
8000
[ "classes", "in", "both", "original", "text", "and", "main", "text", "corpora", ".", "chose", "Support", "Vector", "Machines", "(", "SVM", ")", "because", "it", "has", "been", "shown", "by", "other", "researchers", "in", "AGI" ]
[ 0, 3, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 1 ]
8001
[ "as", "in", "figure", "3", ".", "It", "is", "parsed", "as", "an", "adverb", "(", "AA", ")", ",", "whereas", "it", "should", "be", "a", "verb", "group", "(", "VG", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 4, 3, 4, 0, 1, 0, 0 ]
8002
[ "can", "develop", "after", "exposure", "to", "a", "terrifying", "event", ".", "Q-based", "Union", "PTSD", "(", "posttraumatic", "stress", "disorder", ")", "is", "a", "psychological", "disorder", "caused", "by", "a", "mental", "trauma", "(", "also", "called", "psychotrauma", ")", "that", "can", "develop", "after", "exposure", "to", "a", "terrifying", "event", "." ]
[ 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 1, 0, 4, 4, 4, 0, 4, 4, 0, 4, 0, 0, 4, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0 ]
8003
[ "It", "allows", "for", "testing", "interaction", "scenarios", "that", "employ", "one", "or", "more", "Language", "Technology", "Components", "(", "LTC", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 4, 4, 4, 0, 1, 0, 0 ]
8004
[ "Feature", "Description", "lexical", "the", "words", "of", "the", "product", "attribute", "(", "PA", ")", "the", "POS", "for", "each", "word", "of", "the", "PA" ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 1, 0, 0, 1, 0, 0, 0, 0, 0, 2 ]
8005
[ "The", "tagging", "has", "been", "done", "using", "a", "GUI-based", "tool", "called", "the", "Discourse", "Tagging", "Tool", "(", "DTTool", ")", "ac-", "cording", "to", "``", "The", "Discourse", "Tagging", "Guidelines", "''", "we" ]
[ 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 4, 4, 0, 0, 2, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0 ]
8006
[ "Och", "and", "Ney", "(", "2003", ")", "show", "that", "for", "larger", "corpora", ",", "using", "word", "classes", "leads", "to", "lower", "Alignment", "Error", "Rate", "(", "AER", ")", ".", "This", "is", "not" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0 ]
8007
[ "2", "Relation", "Extraction", "System", "In", "this", "section", ",", "we", "describe", "the", "features", "used", "in", "our", "basic", "relation", "extraction", "(", "RE", ")", "system", ".", "Given" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0 ]
8008
[ "target", "question", ",", "or", "zero", "if", "the", "target", "question", "was", "not", "found", ".", "The", "Mean", "Reciprocal", "Rank", "(", "MRR", ")", "is", "the", "mean", "of", "the", "reciprocal", "ranks", "over", "all", "the", "input", "ques-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8009
[ "discussion", "in", "Ritchie", "(", "1984", ")", ".", "Functional", "unification", "(", "FU", ")", "grammar", "is", "a", "grammatical", "formalism", "which", "allows", "descriptions", "of" ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0 ]
8010
[ "Bigram", "Perplex", ".", "(", "PP", ")", "MDI", "Missed", "Samples", "(", "MS", ")", "Bigram", "Missed", "Samples", "(", "MS", ")" ]
[ 0, 3, 0, 0, 1, 0, 1, 3, 4, 0, 1, 0, 0, 4, 4, 0, 2, 0 ]
8011
[ "networks", ".", "In", "Proceedings", "of", "the", "IEEE", "Conference", "on", "Computer", "Vision", "and", "Pattern", "Recognition", "(", "CVPR", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 1, 0, 3, 4, 4, 4, 4, 4, 0, 1, 0, 0 ]
8012
[ "Therefore", ",", "identification", "methods", "like", "Tsuchiya", "et", "al", "(", "2006", ")", "which", "uses", "Support", "Vector", "Machines", "(", "SVM", ")", "have", "been", "proposed", "to", "solve", "this", "problem", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 1, 0, 0, 0, 0, 4, 0, 0, 0, 0 ]
8013
[ "domain-independent", "mpirical", "induction", "algorithm", ".", "We", "test", "this", "idea", "by", "examining", "the", "machine", "learning", "of", "simple", "Sound", "Pattern", "of", "English", "(", "SPE", ")", "-style", "phonological", "rules", "(", "Chomsky", "and", "Halle", "1968", ")", ",", "beginning", "by", "representing", "phonological", "rules", "as", "finite-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8014
[ "ents", ")", "*100", "%", "?", "F1-score", "=", "2*P*R", "/", "(", "P+R", ")", "Two", "correctness", "criteria", "are", "used", "for", "constitu-" ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0 ]
8015
[ "4", "Corpus", "description", "The", "GRN", "corpus", "is", "a", "set", "of", "201", "sentences", "selected", "from", "PubMed", "abstracts", ",", "which", "are", "mainly", "about", "the", "sporulation", "phenomenon", "in", "Bacillus", "subtilis", ".", "This", "corpus", "is", "an", "extended", "version", "of", "the", "LLL", "and", "BI", "(", "BioNLP-ST", "?", "11", ")", "corpora", ".", "The", "additional", "sentences", "ensure", "a", "better", "coverage", "of", "the", "description", "of", "the", "sporulation", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8016
[ "The", "DlmSum", "Summarization", "Clientprovldes", "a", "sum-", "mary", "of", "a", "document", "in", "multiple", "dlmeuslons", "through", "a", "graphical", "user", "interface", "(", "GUI", ")", "to", "smt", "dflferent", "users", "'", "needs", "In", "contrast", "o", "a", "static", "view", "of", "a", "doc-" ]
[ 0, 0, 0, 0, 3, 0, 0, 0, 4, 0, 4, 0, 0, 0, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0, 4, 0 ]
8017
[ "is", "encoded", "in", "the", "attributes", "MODALITY", "and", "POLARITY", ".", "Modality", "at", "the", "syntactic", "level", "is", "encoded", "as", "an", "attribute", "of", "the", "tag", "SLINK", "(", "Subordination", "Link", ")", ",", "which", "can", "have", "several", "values", ":", "factive", ",", "counterfactive", ",", "evidential", ",", "negative", "evidential", ",", "modal", "," ]
[ 0, 0, 3, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 4, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8018
[ "So", ",", "the", "first", "matrix", "(", "with", "the", "data", "from", "IBL", "trained", "with", "Encoding", "1", ")", "shows", "in", "its", "upper", "row", "the", "classification", "of", "the", "words", "that", "have", "final", "stress", "(", "FIN", ")", ".", "It", "appears", "that", "the", "classifier" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0 ]
8019
[ "stream", ".", "In", "Proceedings", "of", "the", "26th", "Conference", "on", "Uncertainty", "in", "Artificial", "Intelligence", "(", "UAI", ")", ",", "20", "?", "29", "." ]
[ 0, 0, 3, 0, 0, 0, 0, 0, 0, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0 ]
8020
[ "We", "propose", "a", "method", "to", "solve", "this", "problem", ",", "which", "also", "results", "in", "a", "new", "topic", "model", ",", "called", "AKL", "(", "Automated", "Knowledge", "LDA", ")", ",", "whose", "inference", "can", "exploit", "the", "automatically", "learned" ]
[ 0, 0, 3, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 0, 1, 0, 4, 4, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8021
[ "lated", "work", ".", "We", "then", "introduce", "Markov", "logic", "and", "our", "Markov", "Logic", "Network", "(", "MLN", ")", "for", "joint", "bio-event", "extraction", "." ]
[ 0, 3, 0, 0, 0, 0, 4, 0, 0, 0, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0 ]
8022
[ "We", "explore", "how", "to", "utilize", "the", "source-language", "test", "corpus", "for", "adapting", "the", "language", "model", "(", "LM", ")", "and", "the", "translation", "model", "(", "TM", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 1, 0, 0, 0, 4, 0, 0, 2, 0 ]
8023
[ "INAN=inanimate", "NP", ",", "ANIM=animate", "NP", ",", "VBZ", "--", "inflected", "main", "verb", ",", "IS=is", ",", "VBG=gerund", ",", "PP=prepositional", "phrase", ",", "TO=to", "(", "prep", ".", ")", ",", "ONmon", "(", "prep", ".", ")", "." ]
[ 0, 1, 0, 0, 2, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 4, 0, 0, 0, 0, 0, 4, 0, 0, 0 ]
8024
[ "and", "WLLR", "in", "this", "paper", ".", "3.3", "Information", "Gain", "(", "IG", ")", "IG", "measures", "the", "number", "of", "bits", "of", "information" ]
[ 0, 1, 3, 0, 0, 0, 0, 4, 4, 0, 1, 0, 2, 0, 0, 0, 0, 0, 0, 0 ]
8025
[ "Three", "query", "tasks", "were", "defined", "in", "TREC-2003", "and", "TREC-2004", "web", "track", ",", "which", "are", "home", "page", "finding", "(", "HP", ")", ",", "named", "page", "finding", "(", "NP", ")", "and", "topic", "distillation", "(", "TD", ")", "(", "Voorhees", ",", "2003", ";", "Voorhees", ",", "2004", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 1, 0, 0, 4, 4, 0, 0, 1, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8026
[ "329", "Figure", "1", ":", "The", "different", "structures", "(", "left", ":", "constituency", "trees", ",", "right", ":", "predicate", "argument", "structure", ")", "derived", "from", "Sentence", "(", "1", ")", "for", "the", "opinion", "holder", "candidate", "Malaysia", "used", "as", "input", "for", "convolution", "kernels", "(", "CK", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0 ]
8027
[ "There", "are", "two", "other", "threads", "of", "research", "literature", "relevant", "to", "our", "work", ".", "Named", "entity", "(", "NE", ")", "extraction", "attempts", "to", "identify", "entities", "of", "interest" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0 ]
8028
[ "Eat_On_Time", "?", "Theme", "3.3", "Planning", "for", "Linguistic", "Variation", "Sentences", "generated", "by", "Picture", "Books", "vary", "in", "length", "and", "word", "complexity", "according", "to", "the", "user", "?", "s", "age", ".", "The", "variation", "in", "length", "is", "handled", "by", "specificity", "character", "goals", "(", "SCG", ")", "that", "are", "ap-pended", "as", "supporting", "details", "to", "their", "respective", "character", "goals", ".", "SCGs", "are", "designed", "so", "that", "their", "existence", "will", "give", "more", "detail", "to", "the", "preceding", "character", "goal", "while", "ensuring", "consistency", ",", "and", "that", "their", "non-existence", "will", "still", "make", "the", "story", "complete", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 4, 0, 2, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 0, 2, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8029
[ "correct", "class", "of", "an", "item", "from", "its", "context", ".", "The", "Maximum", "Entropy", "(", "MaxEnt", ")", "framework", "is", "especially", "suited", "for", "integrating", "evidence", "from", "var-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8030
[ "and", "As", "for", "perceptron", "criterion", ",", "we", "employ", "the", "average", "perceptron", "(", "AvgP", ")", "(", "Freund", "and", "Sc" ]
[ 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 4, 0, 0, 1, 0, 0, 0, 0 ]
8031
[ "XOAJC", "+", "LC*Ave", "(", "XOAJC", ")", "/Ave", "(", "XOAR", ")", "The", "second", "strategy", "consists", "in", "building", "a", "prediction", "model", "for", "BLAST", "bit", "score", "(", "BBS", ")", "using", "the", "XOA", "score", "and", "the", "log-cosine", "LC", "as", "predictors" ]
[ 1, 0, 0, 3, 2, 4, 0, 4, 0, 4, 0, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 4, 4, 0, 2, 0, 0, 0, 0, 0, 0, 0 ]
8032
[ "22M", "35.88", "27.16", "30.20", "36.21", "27.26", "30.48", "-0.33", "-0.10", "-0.28", "Table", "2", ":", "BLEU", "Score", "results", "for", "the", "Spanish", "Treelet", "Penalty", "experiments", "EX", "Treelet", "Phrasal", "Diff", "(", "T-P", ")", "Req", "Log", "WMT", "2009", "WMT", "2010", "Req", "Log", "WMT", "2009", "WMT", "2010", "Req", "Log", "WMT", "2009", "WMT", "2010" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 3, 0, 0, 1, 4, 4, 0, 0, 1, 0, 0, 0, 1, 0, 2, 0, 0, 0, 2, 0, 2, 0, 0, 0, 2, 0, 2, 0 ]
8033
[ "Third", "Order", "Parser", "93.07", "20", "hrs", "Quadratic", "Kernel", "(", "QK", ")", "93.41", "6", "hrs", "Biquadratic", "Kernel", "(", "BK", ")", "93.45", "6", "hrs", "8-th", "Degree", "Polynomial", "Kernel", "(", "8K", ")", "93.27", "6", "hrs" ]
[ 0, 0, 0, 0, 0, 0, 3, 3, 0, 1, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0 ]
8034
[ "mented", "in", "song", "sentiment", "classification", ",", "i.e", ".", "audiobased", "(", "AB", ")", "approach", ",", "knowledge-based", "(", "KB", ")", "approach", "and", "machine", "learning", "(", "ML", ")", "approach", ",", "in", "which", "the", "latter", "two", "approaches", "are", "also", "referred", "to" ]
[ 0, 3, 0, 0, 0, 0, 0, 0, 3, 0, 1, 0, 0, 0, 3, 0, 1, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8035
[ "standard", "measures", "such", "as", "AUC", "values", ".", "For", "each", "positive+unlabeled", "(", "PU", ")", "corpus", "used", "in", "our", "evaluation", "we", "randomly", "selected", "x", "%", "of", "the", "positive", "ex-" ]
[ 0, 0, 0, 0, 1, 0, 0, 0, 0, 3, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0 ]
8036
[ "3", "Experimental", "Results", "and", "Discussion", "We", "conducted", "closed", "track", "experiments", "on", "the", "Hong", "Kong", "City", "University", "(", "CityU", ")", "corpus", "in", "The", "Second", "International", "Chinese", "Word", "Segmen-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 2, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8037
[ "related", "to", "the", "segments", "bi", "and", "bj", ".", "We", "obtain", "Dbest", "=", "argmaxD", "P", "(", "D|B", ")", "taking", "into", "all", "the", "combination", "of", "these", "probabilities", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8038
[ "DOC", "system", ",", "and", "they", "observe", "a", "close", "correspondence", ".", "We", "have", "employed", "Functional", "Grammar", "(", "FG", ")", "(", "c.f", "\\", "[", "6\\", "]", ")", "as", "a", "principal", "analysis", "tool", "to", "developing", "representations" ]
[ 1, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0 ]
8039
[ "to", "generate", "these", "features", "from", "the", "training", "data", ".", "In", "the", "NE", "(", "named", "entities", ")", "feature", "?", "PERSON", "?" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 3, 4, 0, 0, 1, 2, 2 ]
8040
[ "WSD", ",", "which", "rely", "on", "knowledge", "represented", "as", "attribute-value", "vectors", ":", "C4.5", "(", "decision-trees", ")", ",", "Naive", "Bayes", "and", "Support", "Vector", "Machine", "(", "SVM", ")", "1", "." ]
[ 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0 ]
8041
[ "Intensional", "Allan", "Ramsay", "University", "of", "Manchester", "(", "UK", ")", "email", ":", "allan.ramsay", "@", "manchester.ac.uk" ]
[ 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0 ]
8042
[ "6", "BC", "=", "Broadcast", "Conversations", ";", "BN", "=", "Broadcast", "News", ";", "CTS", "=", "Conversational", "Telephone", "Speech", ";", "NW", "=", "Newswire", ";" ]
[ 0, 0, 0, 0, 3, 3, 0, 0, 0, 4, 4, 0, 0, 0, 4, 4, 4, 0, 0, 0, 4 ]
8043
[ "3.1", "Overview", "Graph-based", "Representation", "Attribute", "Relation", "Graph", "(", "ARG", ")", "(", "Tsai", "and", "Fu", ",", "1979", ")", "is", "used", "to", "represent", "information", "in", "our", "approach", "." ]
[ 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8044
[ "Added", "to", "the", "usual", "space", "of", "local", "permutations", "defined", "by", "a", "low", "distortion", "limit", "(", "DL", ")", ",", "this", "results", "in", "a", "linguistically", "informed", "definition", "of", "the", "search", "space" ]
[ 0, 3, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8045
[ "3.2", "HL-MRFs", "for", "Tweet", "Stance", "Classification", "Finding", "the", "maximum", "a", "posteriori", "(", "MAP", ")", "state", "is", "a", "difficult", "discrete", "optimization", "problem", "and", ",", "in", "gen-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 1, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0 ]
8046
[ "1", "Introduction", "Part-Of-Speech", "(", "POS", ")", "tagging", "is", "the", "essential", "basis", "of", "Natural", "language", "processing", "(", "NLP", ")", ".", "It", "is", "the", "pro-" ]
[ 0, 0, 3, 0, 1, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 1, 0, 0, 0, 0, 0, 0 ]
8047
[ "We", "therefore", "use", "a", "different", "type", "of", "filter", "in", "order", "to", "detect", "these", "errors", ",", "which", "we", "call", "the", "Verb", "Arity", "Sampling", "Test", "(", "VAST", ")", "." ]
[ 0, 0, 0, 3, 0, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 4, 4, 0, 1, 0, 0 ]
8048
[ "that", "is", "as", "close", "as", "possible", "to", "the", "gold", "standard", "C.", "Most", "work", "on", "verb", "clustering", "has", "used", "the", "Fmeasure", "or", "the", "Rand", "Index", "(", "RI", ")", "(", "Rand", ",", "1971", ")", "for", "evaluation", ",", "which", "rely", "on", "counting", "pairwise" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8049
[ "and", "test", "splits", ",", "and", "bias", "the", "results", ".", "We", "trained", "a", "Support", "Vector", "Machine", "(", "SVM", ")", "for", "regression", "with", "RBF", "kernel", "using", "scikit-learn", "(", "Pe-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0 ]
8050
[ "Output", "(", "0", "<", "x", "<", "1", ")", "Figure", "3", "Neural", "network", "architecture", "(", "DA", "=", "descriptor", "array", "of", "20", "items", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 3, 4, 0, 0, 0, 0, 0 ]
8051
[ "Extraction", "(", "from", "now", "on", "AVE", ")", "is", "performed", "with", "two", "approaches", ":", "a", ")", "Rule-based", "approaches", "apply", "Regular", "Expressions", "(", "RE", ")", "to", "map", "the", "words", "realizing", "a", "concept", "into", "a", "normalized", "value", "." ]
[ 0, 0, 0, 0, 3, 1, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 4, 0, 0, 4, 0, 0, 0 ]
8052
[ "to-fine", "n-Best", "Parsing", "and", "MaxEnt", "Discriminative", "Reranking", "Proceedings", "of", "the", "43th", "Annual", "Meeting", "on", "Association", "for", "Computational", "Linguistics", "(", "ACL", ")", "173", "?", "180", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 0, 0, 1, 0, 0, 0, 0, 0 ]
8053
[ "We", "annotate", "the", "semantic", "roles", "for", "the", "50", "most", "frequent", "verbs", "in", "the", "Quranic", "Arabic", "Dependency", "Treebank", "(", "QATB", ")", "(", "Dukes", "and", "Buckwalter", "2010", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0 ]
8054
[ "We", "parse", "each", "corpus", "sentence", "pair", "using", "the", "OpenCCG", "parser", "to", "yield", "a", "logical", "form", "(", "LF", ")", "as", "a", "semantic", "dependency", "graph", "with", "the", "gold-standard", "alignments", "projected" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0 ]
8055
[ "WDS", "0.931", "[", "0.905", ",", "0.958", "]", "0.813", "[", "0.738", ",", "0.887", "]", "0.872", "R=Random", ";", "LR=LexRank", ";", "DR=DivRank", ";", "DR", "(", "p", ")", "=DivRank", "with", "Priors", ";", "CLR=C-LexRank", ";", "WDS=Word", "Distributional", "Similarity", ";", "C.I.=Confidence", "Interval" ]
[ 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 2, 2, 2, 0, 3, 4, 0, 0, 0, 0, 3, 4, 0, 0, 3 ]
8056
[ "(", "PART+", ")", ",", "(", "e.g.", ",", "+", "s+", "will", "[", "future", "]", ")", ".", "Most", "shallow", "is", "the", "class", "of", "conjunctions", "(", "CONJ+", ")", ",", "(", "e.g.", ",", "+", "w+" ]
[ 0, 1, 0, 0, 0, 0, 0, 2, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 2, 0, 0, 0, 0, 0, 2, 0 ]
8057
[ "1", "In", "t", "roduct", "ion", "This", "paper", "deals", "with", "the", "discovery", ",", "representation", ",", "and", "use", "of", "lexical", "rules", "(", "LRs", ")", "in", "the", "process", "of", "large-", "scale", "semi-automatic", "computational", "lexicon", "acqui-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8058
[ ")", ".", "Rand", "Index", "(", "RI", ")", "(", "Rand", ",", "1971", ")", "measures", "the", "percentage", "of", "decisions", "that", "are", "correct", ",", "penalizing", "false", "pos-" ]
[ 0, 0, 3, 4, 0, 1, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8059
[ "uew", "stngc", "in", "the", "development", "toward", "a", "grammar", "and", "style", "chc~ker", "can", "emerge", ":", "the", "organization", "of", "an", "algorithmic", "on", "(", "foiled", "grammar", "(", "ALCOGRAM", ")", ".", "The" ]
[ 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 4, 4, 4, 4, 1, 0, 0, 0 ]
8060
[ "Since", "many", "responses", "in", "ETLA", "are", "expected", "to", "follow", "certain", "patterns", ",", "it", "is", "intuitive", "to", "construct", "limited", "regular", "expressions", "(", "RegEx", ")", "to", "match", "gold", "standard", "responses", "for", "candidates", "with", "high", "profi-" ]
[ 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8061
[ "advP", "Adverb", "phrase", "(", "ADVP", ")", "punct", "Punctuation", "(", ",", ")", "adjP", "Adjective", "phrase", "(", "ADJP", ")", "OP", "advP", ",", "np", "and/or", "pp" ]
[ 1, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 1, 3, 4, 0, 1, 0, 1, 2, 0, 1, 0, 1 ]
8062
[ "composition", "algorithms", "have", "been", "proposed", "in", "the", "meantime", ".", "Thus", ",", "Memory", "Efficient", "Tucker", "(", "MET", ")", "is", "available", "in", "Matlab", "Tensor", "Toolbox", "since", "Version" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8063
[ "tion", "probabilities", "in", "both", "directions", ",", "seven", "features", "for", "the", "lexicalized", "distortion", "model", ",", "a", "word", "and", "a", "phrase", "penalty", "and", "a", "target", "language", "model", "(", "LM", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 4, 0, 0, 4, 0, 0, 0, 4, 0, 4, 4, 0, 1, 0, 0 ]
8064
[ "AST", "=", "Adjectival", "Sta~", "VST", "=", "Verb", "Stem", "DET", "=", "Determine~", "N-FLEX", "=", "Nominal", "Inflexion", "NST", "=", "Noun", "Stem", "V-FLEX", "=", "Verbal", "Inflsxion", "PRN", "=", "Pronoun", "A-FLEX", "=", "Adjectival", "Inflexion" ]
[ 1, 0, 3, 0, 1, 0, 3, 4, 1, 0, 0, 1, 0, 3, 4, 1, 0, 4, 4, 1, 0, 4, 4, 1, 0, 3, 1, 0, 4, 4 ]
8065
[ "1", "Introduction", "The", "use", "of", "Support", "Vector", "Machines", "(", "SVMs", ")", "in", "supervised", "learning", "frameworks", "is", "spreading" ]
[ 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 1, 4, 0, 0, 0, 0, 0 ]
8066
[ "We", "have", "tested", "our", "algorithms", "on", "both", "the", "handcoded", "tag", "set", "used", "in", "(", "Chen", "et", "al", ",", "1999", ")", "and", "supertags", "extracted", "for", "Penn", "Treebank", "(", "PTB", ")", ".", "On", "the" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0 ]
8067
[ "non-standard", "token", "?", "s", "formation", "process", ".", "Machine", "translation", "(", "MT", ")", "is", "another", "commonly", "chosen", "method", "for", "text", "normalization", "." ]
[ 0, 0, 0, 3, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8068
[ "y", "?", "i", "/", "_", "+", "[", "+ANY", "]", "Features", ":", "VWL", "=", "vowel", "ANY", "=", "any", "char", "." ]
[ 3, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 3, 1, 0, 4, 4, 0 ]
8069
[ "The", "research", "systems", "were", ":", "?", "CANDIDE", "(", "IBM", "Research", ":", "French", "-", "English", "(", "FE", ")", ")", ",", "produced", "both", "FA", "and", "human-assisted", "(", "HA", ")", "outputs", "." ]
[ 0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 0, 3, 3, 0, 0, 1, 0, 0, 0, 0, 0, 1, 0, 4, 0, 1, 0, 0, 0 ]
8070
[ "An", "Organization", "for", "a", "Dictionary", "of", "Word", "Senses", "3", ".", "A", "``", "Sense", "Data", "Item", "''", "(", "SDI", ")", "represents", "one", "distinct", "sense", "common", "to", "a", "set", "of", "wordq", "and/or", "phrases", "." ]
[ 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 4, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0 ]
8071
[ "tion", "(", "Briscoe", ",", "1994", ")", ",", "more", "recently", "using", "rule-based", "filters", "(", "White", "and", "Rajkumar", ",", "2008", ")", "in", "a", "combinatory", "categorial", "grammar", "(", "CCG", ")", ".", "Our", "focus", "is", "specifically" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0 ]
8072
[ "we", "annotate", "?", "Chen", "?", "as", "the", "Agent", "(", "ARG0", ")", "of", "the", "full", "predicate", "?", "[" ]
[ 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 4, 0, 0, 0, 0 ]
8073
[ "Table", "3", ":", "The", "configurations", "of", "our", "systems", ".", "The", "abbreviations", "in", "the", "last", "column", "mean", "training", "set", "(", "TS", ")", "and", "validating", "set", "(", "VS", ")", "explaining", "in", "section", "5.1", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 4, 4, 0, 1, 0, 0, 4, 4, 0, 1, 0, 0, 4, 0, 0, 0 ]
8074
[ "Proceedings", "of", "the", "2014", "Conference", "on", "Empirical", "Methods", "in", "Natural", "Language", "Processing", "(", "EMNLP", ")", ",", "pages", "1804", "?", "1809", ",", "October", "25-29", ",", "2014", ",", "Doha", ",", "Qatar", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 4, 4, 0, 1, 2, 0, 0, 0, 0, 2, 0, 0, 2, 0, 2, 0, 2, 0, 0 ]
8075
[ "1", "Introduction", "Many", "text", "understanding", "applications", ",", "such", "as", "Question", "Answering", "(", "QA", ")", "and", "Information", "Extraction", "(", "IE", ")", ",", "need", "to", "infer", "a", "target", "textual", "mean-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 4, 0, 0, 0 ]
8076
[ "Given", "query", "Q", "=", "(", "q1", ",", "?", "?", "?", ",", "qL", ")", ",", "for", "each", "document", "D", ",", "expected", "term", "frequencies", "(", "ETF", ")", "of", "all", "sub-strings", "Q", "[", "i", ",", "j", "]", "=", "(", "qi", ",", "?", "?", "?", "," ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8077
[ "whole", "of", "MARY", "=", "KMary", ">", ".", "referent", "of", "MARY", "=", "Mary", "." ]
[ 0, 0, 1, 0, 0, 0, 0, 0, 0, 2, 0, 3, 0 ]
8078
[ "Abbreviations", ":", "Trig./Arg./Group./Modif.=event", "trigger", "detection/argument", "detection/argument", "grouping/modification", "detection", ",", "BI=Bioinformatician", ",", "NLP=Natural", "Language", "Processing", "researcher", ",", "CS=Computer", "scientist", ",", "CoreNLP=Stanford", "CoreNLP", ",", "Porter=Porter", "stemmer", ",", "Snowball=Snowball", "stemmer", "McCCJ=McClosky-Charniak-Johnson", "parser", ",", "LGP=Link", "Grammar", "Parser", ",", "SD=Stanford", "De-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 0 ]
8079
[ "data", "are", "used", "to", "train", "a", "classifier", ",", "using", "any", "cost-sensitive", "classification", "(", "CSC", ")", "method", "(", "line", "15", ")", ".", "New", "pi" ]
[ 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8080
[ "Learning", "Summary", "Content", "Units", "with", "Topic", "Modeling", "Leonhard", "Hennig", "Ernesto", "William", "De", "Luca", "Distributed", "Artificial", "Intelligence", "Laboratory", "(", "DAI-Lab", ")", "Technische", "Universita", "?", "t", "Berlin" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 0, 0, 4, 0 ]
8081
[ "analysis", "as", "discussed", "in", "the", "next", "section", ".", "Analysis", "of", "Variance", "(", "ANOVA", ")", "tests", "were", "performed", "on", "the", "full", "5", "years", "for", "each", "sector", ",", "to", "com-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8082
[ "Connectivity", "Strength", "Features", "provide", "two", "scores", ",", "Source", "Connectivity", "Strength", "(", "SCS", ")", "and", "Target", "Connectivity", "Strength", "(", "TCS", ")", "." ]
[ 3, 4, 0, 0, 0, 0, 0, 0, 4, 4, 0, 0, 1, 0, 0, 4, 4, 0, 0, 2, 0 ]
8083
[ "Since", "finding", "the", "optimal", "set", "of", "edges", "respecting", "transitivity", "is", "NP-hard", ",", "they", "employed", "Integer", "Linear", "Programming", "(", "ILP", ")", "to", "find", "the", "exact", "solution", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0 ]
8084
[ "The", "e-rater", "system", "TM", "~", "is", "an", "operational", "automated", "essay", "scoring", "system", ",", "developed", "at", "Educational", "Testing", "Service", "(", "ETS", ")", ".", "The" ]
[ 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 0 ]
8085
[ "mensionality", "reduction", ",", "such", "as", "Latent", "Semantic", "Analysis", "(", "LSA", ")", "in", "(", "Pad", "?", "o", "and", "Lapata", ",", "2007", ")", "or", "Non-negative", "Matrix", "Factorization", "(", "NMF", ")", "(", "Zheng", "et", "al.", "," ]
[ 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 4, 0, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0 ]
8086
[ "of", "the", "adjacency", "pair", "involving", "speaker", "B", ",", "we", "use", "four", "categories", "of", "features", ":", "structural", ",", "durational", ",", "lexical", ",", "and", "dialog", "act", "(", "DA", ")", "information", ".", "For", "the" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0 ]
8087
[ "3", "Latent", "Semantic", "Analysis", "Latent", "Semantic", "Analysis", "(", "LSA", ")", "(", "Deerwester", "et", "al", "1990", ")", "is", "a", "widely", "used", "continuous", "vector", "space" ]
[ 0, 0, 3, 4, 0, 4, 4, 0, 0, 1, 0, 0, 0, 4, 0, 2, 4, 4, 0, 0, 0, 0, 0 ]
8088
[ "2", ".", "Corpus", "Resource", "This", "study", "uses", "the", "Switchboard", "Dialog", "Act", "(", "SWBD-DA", ")", "Corpus", "as", "the", "corpus", "resource", ",", "which", "is", "available", "online" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8089
[ "reflecting", "the", "distribution", "of", "the", "genres", "in", "the", "MTC", "(", "Zeyrek", "et", "al", "2009", ")", ".", "The", "main", "objective", "of", "the", "project", "is", "to", "annotate", "discourse", "connectives", "with", "their", "two", "arguments", ",", "modifiers", "and", "supplementary", "text", "spans", ".", "Following", "the", "Penn", "Discourse", "Tree", "Bank", "(", "PDTB", ")", ",", "we", "take", "discourse", "connectives", "as", "discourse-level", "predicates", "taking", "two", "(", "and", "only", "two", ")", "arguments", ",", "called", "Arg1", "and", "Arg2", ",", "which", "may", "span", "one", "or", "more", "clauses", "and", "sentences", "that", "are", "adjacent", "or", "nonadjacent", "to", "the", "connective", "(", "Prasad", "et", "al", "2007", ",", "Webber", ",", "2004", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8090
[ "data", ".", "The", "first", "is", "a", "parser", "trained", "on", "the", "standard", "training", "sections", "of", "the", "PennTreebank", "(", "PTB", ")", "and", "the", "second", "is", "a", "parser", "trained", "on", "the", "training", "por-" ]
[ 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0, 1, 0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 0, 0 ]
8091
[ "query", "large", "amounts", "of", "data", "is", "a", "key", "requirement", "for", "data-driven", "dialog", "systems", ",", "in", "which", "the", "data", "is", "generated", "by", "the", "spoken", "dialog", "system", "(", "SDS", ")", "components", "(", "spoken", "language", "understanding", "(", "SLU", ")", ",", "di-" ]
[ 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 4, 0, 0, 4, 0, 0, 0, 0, 0, 0, 0, 4, 4, 4, 0, 1, 0, 0, 0, 4, 4, 4, 0, 1, 0, 0, 0 ]
8092
[ "Ah", "receptor", "recognizes", "the", "B", "cell", "transcription", "factor", ",", "BSAP", "(", "b", ")", "Grf40", "binds", "to", "linker", "for", "activation", "of", "T", "cells", "(", "LAT", ")", "(", "c", ")" ]
[ 0, 0, 0, 0, 1, 0, 0, 0, 0, 2, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 4, 0, 0, 2, 0, 0, 4, 0 ]
8093
[ "pendencies", ".", "Hochreiter", "and", "Schmidhuber", "(", "1997", ")", ",", "thus", "proposed", "long", "short", "term", "memory", "(", "LSTMs", ")", ",", "a", "variant", "of", "recurrent", "neural", "networks", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8094
[ "the", "affect", "projection", "rules", "are", "useful", ".", "However", ",", "when", "we", "use", "automated", "coreference", "(", "ACoref", ")", ",", "recall", "goes", "down", "and", "precision", "goes", "up", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8095
[ "tion", ")", "strategies", ".", "All", "systems", "are", "evaluated", "according", "to", "their", "Mean", "Average", "Precision", "6", "(", "MAP", ")", "as", "computed", "by", "the", "trec", "eval", "software", "on", "the", "pre-" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 4, 0, 0 ]
8096
[ "HN=highly", "negative", "terms", ",", "N=negative", ",", "P=positive", ",", "HP=highly", "positive", ",", "INV=invertors", ",", "DIM=diminishers", ",", "INV=invertors", "." ]
[ 0, 3, 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 0, 0, 0, 0, 0 ]
8097
[ "4.1", "Test", "Dataset", "The", "dataset", "used", "in", "our", "experiments", "comes", "from", "the", "Automated", "Student", "Assessment", "Prize", "(", "ASAP", ")", "1", ",", "which", "is", "sponsored", "by", "the", "William", "and", "Flora" ]
[ 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 3, 4, 4, 4, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]
8098
[ "These", "are", "typically", "expressed", "in", "simple", "syntactic", "frames", "called", "subcategorization", "frames", "(", "SCFs", ")", "." ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 0, 0, 4, 0, 0, 1, 0 ]
8099
[ "1", "Introduction", "Assigning", "each", "word", "its", "most", "frequent", "sense", "(", "MFS", ")", "is", "commonly", "used", "as", "a", "baseline", "in", "Word", "Sense", "Dis-" ]
[ 0, 0, 0, 0, 0, 0, 0, 3, 4, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0 ]