id
stringlengths 1
4
| tokens
list | ner_tags
list |
---|---|---|
8000 | [
"classes",
"in",
"both",
"original",
"text",
"and",
"main",
"text",
"corpora",
".",
"chose",
"Support",
"Vector",
"Machines",
"(",
"SVM",
")",
"because",
"it",
"has",
"been",
"shown",
"by",
"other",
"researchers",
"in",
"AGI"
]
| [
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
1
]
|
8001 | [
"as",
"in",
"figure",
"3",
".",
"It",
"is",
"parsed",
"as",
"an",
"adverb",
"(",
"AA",
")",
",",
"whereas",
"it",
"should",
"be",
"a",
"verb",
"group",
"(",
"VG",
")",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
4,
3,
4,
0,
1,
0,
0
]
|
8002 | [
"can",
"develop",
"after",
"exposure",
"to",
"a",
"terrifying",
"event",
".",
"Q-based",
"Union",
"PTSD",
"(",
"posttraumatic",
"stress",
"disorder",
")",
"is",
"a",
"psychological",
"disorder",
"caused",
"by",
"a",
"mental",
"trauma",
"(",
"also",
"called",
"psychotrauma",
")",
"that",
"can",
"develop",
"after",
"exposure",
"to",
"a",
"terrifying",
"event",
"."
]
| [
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
1,
0,
4,
4,
4,
0,
4,
4,
0,
4,
0,
0,
4,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
]
|
8003 | [
"It",
"allows",
"for",
"testing",
"interaction",
"scenarios",
"that",
"employ",
"one",
"or",
"more",
"Language",
"Technology",
"Components",
"(",
"LTC",
")",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
4,
4,
4,
0,
1,
0,
0
]
|
8004 | [
"Feature",
"Description",
"lexical",
"the",
"words",
"of",
"the",
"product",
"attribute",
"(",
"PA",
")",
"the",
"POS",
"for",
"each",
"word",
"of",
"the",
"PA"
]
| [
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
1,
0,
0,
0,
0,
0,
2
]
|
8005 | [
"The",
"tagging",
"has",
"been",
"done",
"using",
"a",
"GUI-based",
"tool",
"called",
"the",
"Discourse",
"Tagging",
"Tool",
"(",
"DTTool",
")",
"ac-",
"cording",
"to",
"``",
"The",
"Discourse",
"Tagging",
"Guidelines",
"''",
"we"
]
| [
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
4,
4,
0,
0,
2,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0
]
|
8006 | [
"Och",
"and",
"Ney",
"(",
"2003",
")",
"show",
"that",
"for",
"larger",
"corpora",
",",
"using",
"word",
"classes",
"leads",
"to",
"lower",
"Alignment",
"Error",
"Rate",
"(",
"AER",
")",
".",
"This",
"is",
"not"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0
]
|
8007 | [
"2",
"Relation",
"Extraction",
"System",
"In",
"this",
"section",
",",
"we",
"describe",
"the",
"features",
"used",
"in",
"our",
"basic",
"relation",
"extraction",
"(",
"RE",
")",
"system",
".",
"Given"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0
]
|
8008 | [
"target",
"question",
",",
"or",
"zero",
"if",
"the",
"target",
"question",
"was",
"not",
"found",
".",
"The",
"Mean",
"Reciprocal",
"Rank",
"(",
"MRR",
")",
"is",
"the",
"mean",
"of",
"the",
"reciprocal",
"ranks",
"over",
"all",
"the",
"input",
"ques-"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8009 | [
"discussion",
"in",
"Ritchie",
"(",
"1984",
")",
".",
"Functional",
"unification",
"(",
"FU",
")",
"grammar",
"is",
"a",
"grammatical",
"formalism",
"which",
"allows",
"descriptions",
"of"
]
| [
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0
]
|
8010 | [
"Bigram",
"Perplex",
".",
"(",
"PP",
")",
"MDI",
"Missed",
"Samples",
"(",
"MS",
")",
"Bigram",
"Missed",
"Samples",
"(",
"MS",
")"
]
| [
0,
3,
0,
0,
1,
0,
1,
3,
4,
0,
1,
0,
0,
4,
4,
0,
2,
0
]
|
8011 | [
"networks",
".",
"In",
"Proceedings",
"of",
"the",
"IEEE",
"Conference",
"on",
"Computer",
"Vision",
"and",
"Pattern",
"Recognition",
"(",
"CVPR",
")",
"."
]
| [
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
4,
4,
4,
4,
0,
1,
0,
0
]
|
8012 | [
"Therefore",
",",
"identification",
"methods",
"like",
"Tsuchiya",
"et",
"al",
"(",
"2006",
")",
"which",
"uses",
"Support",
"Vector",
"Machines",
"(",
"SVM",
")",
"have",
"been",
"proposed",
"to",
"solve",
"this",
"problem",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
4,
0,
0,
0,
0
]
|
8013 | [
"domain-independent",
"mpirical",
"induction",
"algorithm",
".",
"We",
"test",
"this",
"idea",
"by",
"examining",
"the",
"machine",
"learning",
"of",
"simple",
"Sound",
"Pattern",
"of",
"English",
"(",
"SPE",
")",
"-style",
"phonological",
"rules",
"(",
"Chomsky",
"and",
"Halle",
"1968",
")",
",",
"beginning",
"by",
"representing",
"phonological",
"rules",
"as",
"finite-"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8014 | [
"ents",
")",
"*100",
"%",
"?",
"F1-score",
"=",
"2*P*R",
"/",
"(",
"P+R",
")",
"Two",
"correctness",
"criteria",
"are",
"used",
"for",
"constitu-"
]
| [
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8015 | [
"4",
"Corpus",
"description",
"The",
"GRN",
"corpus",
"is",
"a",
"set",
"of",
"201",
"sentences",
"selected",
"from",
"PubMed",
"abstracts",
",",
"which",
"are",
"mainly",
"about",
"the",
"sporulation",
"phenomenon",
"in",
"Bacillus",
"subtilis",
".",
"This",
"corpus",
"is",
"an",
"extended",
"version",
"of",
"the",
"LLL",
"and",
"BI",
"(",
"BioNLP-ST",
"?",
"11",
")",
"corpora",
".",
"The",
"additional",
"sentences",
"ensure",
"a",
"better",
"coverage",
"of",
"the",
"description",
"of",
"the",
"sporulation",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8016 | [
"The",
"DlmSum",
"Summarization",
"Clientprovldes",
"a",
"sum-",
"mary",
"of",
"a",
"document",
"in",
"multiple",
"dlmeuslons",
"through",
"a",
"graphical",
"user",
"interface",
"(",
"GUI",
")",
"to",
"smt",
"dflferent",
"users",
"'",
"needs",
"In",
"contrast",
"o",
"a",
"static",
"view",
"of",
"a",
"doc-"
]
| [
0,
0,
0,
0,
3,
0,
0,
0,
4,
0,
4,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
4,
0
]
|
8017 | [
"is",
"encoded",
"in",
"the",
"attributes",
"MODALITY",
"and",
"POLARITY",
".",
"Modality",
"at",
"the",
"syntactic",
"level",
"is",
"encoded",
"as",
"an",
"attribute",
"of",
"the",
"tag",
"SLINK",
"(",
"Subordination",
"Link",
")",
",",
"which",
"can",
"have",
"several",
"values",
":",
"factive",
",",
"counterfactive",
",",
"evidential",
",",
"negative",
"evidential",
",",
"modal",
","
]
| [
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8018 | [
"So",
",",
"the",
"first",
"matrix",
"(",
"with",
"the",
"data",
"from",
"IBL",
"trained",
"with",
"Encoding",
"1",
")",
"shows",
"in",
"its",
"upper",
"row",
"the",
"classification",
"of",
"the",
"words",
"that",
"have",
"final",
"stress",
"(",
"FIN",
")",
".",
"It",
"appears",
"that",
"the",
"classifier"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0
]
|
8019 | [
"stream",
".",
"In",
"Proceedings",
"of",
"the",
"26th",
"Conference",
"on",
"Uncertainty",
"in",
"Artificial",
"Intelligence",
"(",
"UAI",
")",
",",
"20",
"?",
"29",
"."
]
| [
0,
0,
3,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
]
|
8020 | [
"We",
"propose",
"a",
"method",
"to",
"solve",
"this",
"problem",
",",
"which",
"also",
"results",
"in",
"a",
"new",
"topic",
"model",
",",
"called",
"AKL",
"(",
"Automated",
"Knowledge",
"LDA",
")",
",",
"whose",
"inference",
"can",
"exploit",
"the",
"automatically",
"learned"
]
| [
0,
0,
3,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
1,
0,
4,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8021 | [
"lated",
"work",
".",
"We",
"then",
"introduce",
"Markov",
"logic",
"and",
"our",
"Markov",
"Logic",
"Network",
"(",
"MLN",
")",
"for",
"joint",
"bio-event",
"extraction",
"."
]
| [
0,
3,
0,
0,
0,
0,
4,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
]
|
8022 | [
"We",
"explore",
"how",
"to",
"utilize",
"the",
"source-language",
"test",
"corpus",
"for",
"adapting",
"the",
"language",
"model",
"(",
"LM",
")",
"and",
"the",
"translation",
"model",
"(",
"TM",
")",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
4,
0,
0,
2,
0
]
|
8023 | [
"INAN=inanimate",
"NP",
",",
"ANIM=animate",
"NP",
",",
"VBZ",
"--",
"inflected",
"main",
"verb",
",",
"IS=is",
",",
"VBG=gerund",
",",
"PP=prepositional",
"phrase",
",",
"TO=to",
"(",
"prep",
".",
")",
",",
"ONmon",
"(",
"prep",
".",
")",
"."
]
| [
0,
1,
0,
0,
2,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
4,
0,
0,
0,
0,
0,
4,
0,
0,
0
]
|
8024 | [
"and",
"WLLR",
"in",
"this",
"paper",
".",
"3.3",
"Information",
"Gain",
"(",
"IG",
")",
"IG",
"measures",
"the",
"number",
"of",
"bits",
"of",
"information"
]
| [
0,
1,
3,
0,
0,
0,
0,
4,
4,
0,
1,
0,
2,
0,
0,
0,
0,
0,
0,
0
]
|
8025 | [
"Three",
"query",
"tasks",
"were",
"defined",
"in",
"TREC-2003",
"and",
"TREC-2004",
"web",
"track",
",",
"which",
"are",
"home",
"page",
"finding",
"(",
"HP",
")",
",",
"named",
"page",
"finding",
"(",
"NP",
")",
"and",
"topic",
"distillation",
"(",
"TD",
")",
"(",
"Voorhees",
",",
"2003",
";",
"Voorhees",
",",
"2004",
")",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
4,
4,
0,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8026 | [
"329",
"Figure",
"1",
":",
"The",
"different",
"structures",
"(",
"left",
":",
"constituency",
"trees",
",",
"right",
":",
"predicate",
"argument",
"structure",
")",
"derived",
"from",
"Sentence",
"(",
"1",
")",
"for",
"the",
"opinion",
"holder",
"candidate",
"Malaysia",
"used",
"as",
"input",
"for",
"convolution",
"kernels",
"(",
"CK",
")",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0
]
|
8027 | [
"There",
"are",
"two",
"other",
"threads",
"of",
"research",
"literature",
"relevant",
"to",
"our",
"work",
".",
"Named",
"entity",
"(",
"NE",
")",
"extraction",
"attempts",
"to",
"identify",
"entities",
"of",
"interest"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8028 | [
"Eat_On_Time",
"?",
"Theme",
"3.3",
"Planning",
"for",
"Linguistic",
"Variation",
"Sentences",
"generated",
"by",
"Picture",
"Books",
"vary",
"in",
"length",
"and",
"word",
"complexity",
"according",
"to",
"the",
"user",
"?",
"s",
"age",
".",
"The",
"variation",
"in",
"length",
"is",
"handled",
"by",
"specificity",
"character",
"goals",
"(",
"SCG",
")",
"that",
"are",
"ap-pended",
"as",
"supporting",
"details",
"to",
"their",
"respective",
"character",
"goals",
".",
"SCGs",
"are",
"designed",
"so",
"that",
"their",
"existence",
"will",
"give",
"more",
"detail",
"to",
"the",
"preceding",
"character",
"goal",
"while",
"ensuring",
"consistency",
",",
"and",
"that",
"their",
"non-existence",
"will",
"still",
"make",
"the",
"story",
"complete",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8029 | [
"correct",
"class",
"of",
"an",
"item",
"from",
"its",
"context",
".",
"The",
"Maximum",
"Entropy",
"(",
"MaxEnt",
")",
"framework",
"is",
"especially",
"suited",
"for",
"integrating",
"evidence",
"from",
"var-"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8030 | [
"and",
"As",
"for",
"perceptron",
"criterion",
",",
"we",
"employ",
"the",
"average",
"perceptron",
"(",
"AvgP",
")",
"(",
"Freund",
"and",
"Sc"
]
| [
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
4,
0,
0,
1,
0,
0,
0,
0
]
|
8031 | [
"XOAJC",
"+",
"LC*Ave",
"(",
"XOAJC",
")",
"/Ave",
"(",
"XOAR",
")",
"The",
"second",
"strategy",
"consists",
"in",
"building",
"a",
"prediction",
"model",
"for",
"BLAST",
"bit",
"score",
"(",
"BBS",
")",
"using",
"the",
"XOA",
"score",
"and",
"the",
"log-cosine",
"LC",
"as",
"predictors"
]
| [
1,
0,
0,
3,
2,
4,
0,
4,
0,
4,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0
]
|
8032 | [
"22M",
"35.88",
"27.16",
"30.20",
"36.21",
"27.26",
"30.48",
"-0.33",
"-0.10",
"-0.28",
"Table",
"2",
":",
"BLEU",
"Score",
"results",
"for",
"the",
"Spanish",
"Treelet",
"Penalty",
"experiments",
"EX",
"Treelet",
"Phrasal",
"Diff",
"(",
"T-P",
")",
"Req",
"Log",
"WMT",
"2009",
"WMT",
"2010",
"Req",
"Log",
"WMT",
"2009",
"WMT",
"2010",
"Req",
"Log",
"WMT",
"2009",
"WMT",
"2010"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
3,
0,
0,
1,
4,
4,
0,
0,
1,
0,
0,
0,
1,
0,
2,
0,
0,
0,
2,
0,
2,
0,
0,
0,
2,
0,
2,
0
]
|
8033 | [
"Third",
"Order",
"Parser",
"93.07",
"20",
"hrs",
"Quadratic",
"Kernel",
"(",
"QK",
")",
"93.41",
"6",
"hrs",
"Biquadratic",
"Kernel",
"(",
"BK",
")",
"93.45",
"6",
"hrs",
"8-th",
"Degree",
"Polynomial",
"Kernel",
"(",
"8K",
")",
"93.27",
"6",
"hrs"
]
| [
0,
0,
0,
0,
0,
0,
3,
3,
0,
1,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0
]
|
8034 | [
"mented",
"in",
"song",
"sentiment",
"classification",
",",
"i.e",
".",
"audiobased",
"(",
"AB",
")",
"approach",
",",
"knowledge-based",
"(",
"KB",
")",
"approach",
"and",
"machine",
"learning",
"(",
"ML",
")",
"approach",
",",
"in",
"which",
"the",
"latter",
"two",
"approaches",
"are",
"also",
"referred",
"to"
]
| [
0,
3,
0,
0,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
3,
0,
1,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8035 | [
"standard",
"measures",
"such",
"as",
"AUC",
"values",
".",
"For",
"each",
"positive+unlabeled",
"(",
"PU",
")",
"corpus",
"used",
"in",
"our",
"evaluation",
"we",
"randomly",
"selected",
"x",
"%",
"of",
"the",
"positive",
"ex-"
]
| [
0,
0,
0,
0,
1,
0,
0,
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0
]
|
8036 | [
"3",
"Experimental",
"Results",
"and",
"Discussion",
"We",
"conducted",
"closed",
"track",
"experiments",
"on",
"the",
"Hong",
"Kong",
"City",
"University",
"(",
"CityU",
")",
"corpus",
"in",
"The",
"Second",
"International",
"Chinese",
"Word",
"Segmen-"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8037 | [
"related",
"to",
"the",
"segments",
"bi",
"and",
"bj",
".",
"We",
"obtain",
"Dbest",
"=",
"argmaxD",
"P",
"(",
"D|B",
")",
"taking",
"into",
"all",
"the",
"combination",
"of",
"these",
"probabilities",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8038 | [
"DOC",
"system",
",",
"and",
"they",
"observe",
"a",
"close",
"correspondence",
".",
"We",
"have",
"employed",
"Functional",
"Grammar",
"(",
"FG",
")",
"(",
"c.f",
"\\",
"[",
"6\\",
"]",
")",
"as",
"a",
"principal",
"analysis",
"tool",
"to",
"developing",
"representations"
]
| [
1,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0
]
|
8039 | [
"to",
"generate",
"these",
"features",
"from",
"the",
"training",
"data",
".",
"In",
"the",
"NE",
"(",
"named",
"entities",
")",
"feature",
"?",
"PERSON",
"?"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
0,
1,
2,
2
]
|
8040 | [
"WSD",
",",
"which",
"rely",
"on",
"knowledge",
"represented",
"as",
"attribute-value",
"vectors",
":",
"C4.5",
"(",
"decision-trees",
")",
",",
"Naive",
"Bayes",
"and",
"Support",
"Vector",
"Machine",
"(",
"SVM",
")",
"1",
"."
]
| [
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0
]
|
8041 | [
"Intensional",
"Allan",
"Ramsay",
"University",
"of",
"Manchester",
"(",
"UK",
")",
"email",
":",
"allan.ramsay",
"@",
"manchester.ac.uk"
]
| [
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
]
|
8042 | [
"6",
"BC",
"=",
"Broadcast",
"Conversations",
";",
"BN",
"=",
"Broadcast",
"News",
";",
"CTS",
"=",
"Conversational",
"Telephone",
"Speech",
";",
"NW",
"=",
"Newswire",
";"
]
| [
0,
0,
0,
0,
3,
3,
0,
0,
0,
4,
4,
0,
0,
0,
4,
4,
4,
0,
0,
0,
4
]
|
8043 | [
"3.1",
"Overview",
"Graph-based",
"Representation",
"Attribute",
"Relation",
"Graph",
"(",
"ARG",
")",
"(",
"Tsai",
"and",
"Fu",
",",
"1979",
")",
"is",
"used",
"to",
"represent",
"information",
"in",
"our",
"approach",
"."
]
| [
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8044 | [
"Added",
"to",
"the",
"usual",
"space",
"of",
"local",
"permutations",
"defined",
"by",
"a",
"low",
"distortion",
"limit",
"(",
"DL",
")",
",",
"this",
"results",
"in",
"a",
"linguistically",
"informed",
"definition",
"of",
"the",
"search",
"space"
]
| [
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8045 | [
"3.2",
"HL-MRFs",
"for",
"Tweet",
"Stance",
"Classification",
"Finding",
"the",
"maximum",
"a",
"posteriori",
"(",
"MAP",
")",
"state",
"is",
"a",
"difficult",
"discrete",
"optimization",
"problem",
"and",
",",
"in",
"gen-"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8046 | [
"1",
"Introduction",
"Part-Of-Speech",
"(",
"POS",
")",
"tagging",
"is",
"the",
"essential",
"basis",
"of",
"Natural",
"language",
"processing",
"(",
"NLP",
")",
".",
"It",
"is",
"the",
"pro-"
]
| [
0,
0,
3,
0,
1,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0
]
|
8047 | [
"We",
"therefore",
"use",
"a",
"different",
"type",
"of",
"filter",
"in",
"order",
"to",
"detect",
"these",
"errors",
",",
"which",
"we",
"call",
"the",
"Verb",
"Arity",
"Sampling",
"Test",
"(",
"VAST",
")",
"."
]
| [
0,
0,
0,
3,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0
]
|
8048 | [
"that",
"is",
"as",
"close",
"as",
"possible",
"to",
"the",
"gold",
"standard",
"C.",
"Most",
"work",
"on",
"verb",
"clustering",
"has",
"used",
"the",
"Fmeasure",
"or",
"the",
"Rand",
"Index",
"(",
"RI",
")",
"(",
"Rand",
",",
"1971",
")",
"for",
"evaluation",
",",
"which",
"rely",
"on",
"counting",
"pairwise"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8049 | [
"and",
"test",
"splits",
",",
"and",
"bias",
"the",
"results",
".",
"We",
"trained",
"a",
"Support",
"Vector",
"Machine",
"(",
"SVM",
")",
"for",
"regression",
"with",
"RBF",
"kernel",
"using",
"scikit-learn",
"(",
"Pe-"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0
]
|
8050 | [
"Output",
"(",
"0",
"<",
"x",
"<",
"1",
")",
"Figure",
"3",
"Neural",
"network",
"architecture",
"(",
"DA",
"=",
"descriptor",
"array",
"of",
"20",
"items",
")",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
4,
0,
0,
0,
0,
0
]
|
8051 | [
"Extraction",
"(",
"from",
"now",
"on",
"AVE",
")",
"is",
"performed",
"with",
"two",
"approaches",
":",
"a",
")",
"Rule-based",
"approaches",
"apply",
"Regular",
"Expressions",
"(",
"RE",
")",
"to",
"map",
"the",
"words",
"realizing",
"a",
"concept",
"into",
"a",
"normalized",
"value",
"."
]
| [
0,
0,
0,
0,
3,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
4,
0,
0,
4,
0,
0,
0
]
|
8052 | [
"to-fine",
"n-Best",
"Parsing",
"and",
"MaxEnt",
"Discriminative",
"Reranking",
"Proceedings",
"of",
"the",
"43th",
"Annual",
"Meeting",
"on",
"Association",
"for",
"Computational",
"Linguistics",
"(",
"ACL",
")",
"173",
"?",
"180",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
0,
1,
0,
0,
0,
0,
0
]
|
8053 | [
"We",
"annotate",
"the",
"semantic",
"roles",
"for",
"the",
"50",
"most",
"frequent",
"verbs",
"in",
"the",
"Quranic",
"Arabic",
"Dependency",
"Treebank",
"(",
"QATB",
")",
"(",
"Dukes",
"and",
"Buckwalter",
"2010",
")",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8054 | [
"We",
"parse",
"each",
"corpus",
"sentence",
"pair",
"using",
"the",
"OpenCCG",
"parser",
"to",
"yield",
"a",
"logical",
"form",
"(",
"LF",
")",
"as",
"a",
"semantic",
"dependency",
"graph",
"with",
"the",
"gold-standard",
"alignments",
"projected"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8055 | [
"WDS",
"0.931",
"[",
"0.905",
",",
"0.958",
"]",
"0.813",
"[",
"0.738",
",",
"0.887",
"]",
"0.872",
"R=Random",
";",
"LR=LexRank",
";",
"DR=DivRank",
";",
"DR",
"(",
"p",
")",
"=DivRank",
"with",
"Priors",
";",
"CLR=C-LexRank",
";",
"WDS=Word",
"Distributional",
"Similarity",
";",
"C.I.=Confidence",
"Interval"
]
| [
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
2,
2,
2,
0,
3,
4,
0,
0,
0,
0,
3,
4,
0,
0,
3
]
|
8056 | [
"(",
"PART+",
")",
",",
"(",
"e.g.",
",",
"+",
"s+",
"will",
"[",
"future",
"]",
")",
".",
"Most",
"shallow",
"is",
"the",
"class",
"of",
"conjunctions",
"(",
"CONJ+",
")",
",",
"(",
"e.g.",
",",
"+",
"w+"
]
| [
0,
1,
0,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
2,
0,
0,
0,
0,
0,
2,
0
]
|
8057 | [
"1",
"In",
"t",
"roduct",
"ion",
"This",
"paper",
"deals",
"with",
"the",
"discovery",
",",
"representation",
",",
"and",
"use",
"of",
"lexical",
"rules",
"(",
"LRs",
")",
"in",
"the",
"process",
"of",
"large-",
"scale",
"semi-automatic",
"computational",
"lexicon",
"acqui-"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8058 | [
")",
".",
"Rand",
"Index",
"(",
"RI",
")",
"(",
"Rand",
",",
"1971",
")",
"measures",
"the",
"percentage",
"of",
"decisions",
"that",
"are",
"correct",
",",
"penalizing",
"false",
"pos-"
]
| [
0,
0,
3,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8059 | [
"uew",
"stngc",
"in",
"the",
"development",
"toward",
"a",
"grammar",
"and",
"style",
"chc~ker",
"can",
"emerge",
":",
"the",
"organization",
"of",
"an",
"algorithmic",
"on",
"(",
"foiled",
"grammar",
"(",
"ALCOGRAM",
")",
".",
"The"
]
| [
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
4,
4,
1,
0,
0,
0
]
|
8060 | [
"Since",
"many",
"responses",
"in",
"ETLA",
"are",
"expected",
"to",
"follow",
"certain",
"patterns",
",",
"it",
"is",
"intuitive",
"to",
"construct",
"limited",
"regular",
"expressions",
"(",
"RegEx",
")",
"to",
"match",
"gold",
"standard",
"responses",
"for",
"candidates",
"with",
"high",
"profi-"
]
| [
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8061 | [
"advP",
"Adverb",
"phrase",
"(",
"ADVP",
")",
"punct",
"Punctuation",
"(",
",",
")",
"adjP",
"Adjective",
"phrase",
"(",
"ADJP",
")",
"OP",
"advP",
",",
"np",
"and/or",
"pp"
]
| [
1,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
1,
3,
4,
0,
1,
0,
1,
2,
0,
1,
0,
1
]
|
8062 | [
"composition",
"algorithms",
"have",
"been",
"proposed",
"in",
"the",
"meantime",
".",
"Thus",
",",
"Memory",
"Efficient",
"Tucker",
"(",
"MET",
")",
"is",
"available",
"in",
"Matlab",
"Tensor",
"Toolbox",
"since",
"Version"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8063 | [
"tion",
"probabilities",
"in",
"both",
"directions",
",",
"seven",
"features",
"for",
"the",
"lexicalized",
"distortion",
"model",
",",
"a",
"word",
"and",
"a",
"phrase",
"penalty",
"and",
"a",
"target",
"language",
"model",
"(",
"LM",
")",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
4,
0,
0,
4,
0,
0,
0,
4,
0,
4,
4,
0,
1,
0,
0
]
|
8064 | [
"AST",
"=",
"Adjectival",
"Sta~",
"VST",
"=",
"Verb",
"Stem",
"DET",
"=",
"Determine~",
"N-FLEX",
"=",
"Nominal",
"Inflexion",
"NST",
"=",
"Noun",
"Stem",
"V-FLEX",
"=",
"Verbal",
"Inflsxion",
"PRN",
"=",
"Pronoun",
"A-FLEX",
"=",
"Adjectival",
"Inflexion"
]
| [
1,
0,
3,
0,
1,
0,
3,
4,
1,
0,
0,
1,
0,
3,
4,
1,
0,
4,
4,
1,
0,
4,
4,
1,
0,
3,
1,
0,
4,
4
]
|
8065 | [
"1",
"Introduction",
"The",
"use",
"of",
"Support",
"Vector",
"Machines",
"(",
"SVMs",
")",
"in",
"supervised",
"learning",
"frameworks",
"is",
"spreading"
]
| [
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
4,
0,
0,
0,
0,
0
]
|
8066 | [
"We",
"have",
"tested",
"our",
"algorithms",
"on",
"both",
"the",
"handcoded",
"tag",
"set",
"used",
"in",
"(",
"Chen",
"et",
"al",
",",
"1999",
")",
"and",
"supertags",
"extracted",
"for",
"Penn",
"Treebank",
"(",
"PTB",
")",
".",
"On",
"the"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0
]
|
8067 | [
"non-standard",
"token",
"?",
"s",
"formation",
"process",
".",
"Machine",
"translation",
"(",
"MT",
")",
"is",
"another",
"commonly",
"chosen",
"method",
"for",
"text",
"normalization",
"."
]
| [
0,
0,
0,
3,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8068 | [
"y",
"?",
"i",
"/",
"_",
"+",
"[",
"+ANY",
"]",
"Features",
":",
"VWL",
"=",
"vowel",
"ANY",
"=",
"any",
"char",
"."
]
| [
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
3,
1,
0,
4,
4,
0
]
|
8069 | [
"The",
"research",
"systems",
"were",
":",
"?",
"CANDIDE",
"(",
"IBM",
"Research",
":",
"French",
"-",
"English",
"(",
"FE",
")",
")",
",",
"produced",
"both",
"FA",
"and",
"human-assisted",
"(",
"HA",
")",
"outputs",
"."
]
| [
0,
0,
0,
0,
0,
0,
1,
0,
1,
0,
0,
3,
3,
0,
0,
1,
0,
0,
0,
0,
0,
1,
0,
4,
0,
1,
0,
0,
0
]
|
8070 | [
"An",
"Organization",
"for",
"a",
"Dictionary",
"of",
"Word",
"Senses",
"3",
".",
"A",
"``",
"Sense",
"Data",
"Item",
"''",
"(",
"SDI",
")",
"represents",
"one",
"distinct",
"sense",
"common",
"to",
"a",
"set",
"of",
"wordq",
"and/or",
"phrases",
"."
]
| [
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0
]
|
8071 | [
"tion",
"(",
"Briscoe",
",",
"1994",
")",
",",
"more",
"recently",
"using",
"rule-based",
"filters",
"(",
"White",
"and",
"Rajkumar",
",",
"2008",
")",
"in",
"a",
"combinatory",
"categorial",
"grammar",
"(",
"CCG",
")",
".",
"Our",
"focus",
"is",
"specifically"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
]
|
8072 | [
"we",
"annotate",
"?",
"Chen",
"?",
"as",
"the",
"Agent",
"(",
"ARG0",
")",
"of",
"the",
"full",
"predicate",
"?",
"["
]
| [
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0,
0
]
|
8073 | [
"Table",
"3",
":",
"The",
"configurations",
"of",
"our",
"systems",
".",
"The",
"abbreviations",
"in",
"the",
"last",
"column",
"mean",
"training",
"set",
"(",
"TS",
")",
"and",
"validating",
"set",
"(",
"VS",
")",
"explaining",
"in",
"section",
"5.1",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
4,
4,
0,
1,
0,
0,
4,
0,
0,
0
]
|
8074 | [
"Proceedings",
"of",
"the",
"2014",
"Conference",
"on",
"Empirical",
"Methods",
"in",
"Natural",
"Language",
"Processing",
"(",
"EMNLP",
")",
",",
"pages",
"1804",
"?",
"1809",
",",
"October",
"25-29",
",",
"2014",
",",
"Doha",
",",
"Qatar",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
4,
0,
1,
2,
0,
0,
0,
0,
2,
0,
0,
2,
0,
2,
0,
2,
0,
0
]
|
8075 | [
"1",
"Introduction",
"Many",
"text",
"understanding",
"applications",
",",
"such",
"as",
"Question",
"Answering",
"(",
"QA",
")",
"and",
"Information",
"Extraction",
"(",
"IE",
")",
",",
"need",
"to",
"infer",
"a",
"target",
"textual",
"mean-"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
4,
0,
0,
0
]
|
8076 | [
"Given",
"query",
"Q",
"=",
"(",
"q1",
",",
"?",
"?",
"?",
",",
"qL",
")",
",",
"for",
"each",
"document",
"D",
",",
"expected",
"term",
"frequencies",
"(",
"ETF",
")",
"of",
"all",
"sub-strings",
"Q",
"[",
"i",
",",
"j",
"]",
"=",
"(",
"qi",
",",
"?",
"?",
"?",
","
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8077 | [
"whole",
"of",
"MARY",
"=",
"KMary",
">",
".",
"referent",
"of",
"MARY",
"=",
"Mary",
"."
]
| [
0,
0,
1,
0,
0,
0,
0,
0,
0,
2,
0,
3,
0
]
|
8078 | [
"Abbreviations",
":",
"Trig./Arg./Group./Modif.=event",
"trigger",
"detection/argument",
"detection/argument",
"grouping/modification",
"detection",
",",
"BI=Bioinformatician",
",",
"NLP=Natural",
"Language",
"Processing",
"researcher",
",",
"CS=Computer",
"scientist",
",",
"CoreNLP=Stanford",
"CoreNLP",
",",
"Porter=Porter",
"stemmer",
",",
"Snowball=Snowball",
"stemmer",
"McCCJ=McClosky-Charniak-Johnson",
"parser",
",",
"LGP=Link",
"Grammar",
"Parser",
",",
"SD=Stanford",
"De-"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
0
]
|
8079 | [
"data",
"are",
"used",
"to",
"train",
"a",
"classifier",
",",
"using",
"any",
"cost-sensitive",
"classification",
"(",
"CSC",
")",
"method",
"(",
"line",
"15",
")",
".",
"New",
"pi"
]
| [
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8080 | [
"Learning",
"Summary",
"Content",
"Units",
"with",
"Topic",
"Modeling",
"Leonhard",
"Hennig",
"Ernesto",
"William",
"De",
"Luca",
"Distributed",
"Artificial",
"Intelligence",
"Laboratory",
"(",
"DAI-Lab",
")",
"Technische",
"Universita",
"?",
"t",
"Berlin"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
4,
0
]
|
8081 | [
"analysis",
"as",
"discussed",
"in",
"the",
"next",
"section",
".",
"Analysis",
"of",
"Variance",
"(",
"ANOVA",
")",
"tests",
"were",
"performed",
"on",
"the",
"full",
"5",
"years",
"for",
"each",
"sector",
",",
"to",
"com-"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8082 | [
"Connectivity",
"Strength",
"Features",
"provide",
"two",
"scores",
",",
"Source",
"Connectivity",
"Strength",
"(",
"SCS",
")",
"and",
"Target",
"Connectivity",
"Strength",
"(",
"TCS",
")",
"."
]
| [
3,
4,
0,
0,
0,
0,
0,
0,
4,
4,
0,
0,
1,
0,
0,
4,
4,
0,
0,
2,
0
]
|
8083 | [
"Since",
"finding",
"the",
"optimal",
"set",
"of",
"edges",
"respecting",
"transitivity",
"is",
"NP-hard",
",",
"they",
"employed",
"Integer",
"Linear",
"Programming",
"(",
"ILP",
")",
"to",
"find",
"the",
"exact",
"solution",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0
]
|
8084 | [
"The",
"e-rater",
"system",
"TM",
"~",
"is",
"an",
"operational",
"automated",
"essay",
"scoring",
"system",
",",
"developed",
"at",
"Educational",
"Testing",
"Service",
"(",
"ETS",
")",
".",
"The"
]
| [
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0
]
|
8085 | [
"mensionality",
"reduction",
",",
"such",
"as",
"Latent",
"Semantic",
"Analysis",
"(",
"LSA",
")",
"in",
"(",
"Pad",
"?",
"o",
"and",
"Lapata",
",",
"2007",
")",
"or",
"Non-negative",
"Matrix",
"Factorization",
"(",
"NMF",
")",
"(",
"Zheng",
"et",
"al.",
","
]
| [
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
4,
0,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0
]
|
8086 | [
"of",
"the",
"adjacency",
"pair",
"involving",
"speaker",
"B",
",",
"we",
"use",
"four",
"categories",
"of",
"features",
":",
"structural",
",",
"durational",
",",
"lexical",
",",
"and",
"dialog",
"act",
"(",
"DA",
")",
"information",
".",
"For",
"the"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0
]
|
8087 | [
"3",
"Latent",
"Semantic",
"Analysis",
"Latent",
"Semantic",
"Analysis",
"(",
"LSA",
")",
"(",
"Deerwester",
"et",
"al",
"1990",
")",
"is",
"a",
"widely",
"used",
"continuous",
"vector",
"space"
]
| [
0,
0,
3,
4,
0,
4,
4,
0,
0,
1,
0,
0,
0,
4,
0,
2,
4,
4,
0,
0,
0,
0,
0
]
|
8088 | [
"2",
".",
"Corpus",
"Resource",
"This",
"study",
"uses",
"the",
"Switchboard",
"Dialog",
"Act",
"(",
"SWBD-DA",
")",
"Corpus",
"as",
"the",
"corpus",
"resource",
",",
"which",
"is",
"available",
"online"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8089 | [
"reflecting",
"the",
"distribution",
"of",
"the",
"genres",
"in",
"the",
"MTC",
"(",
"Zeyrek",
"et",
"al",
"2009",
")",
".",
"The",
"main",
"objective",
"of",
"the",
"project",
"is",
"to",
"annotate",
"discourse",
"connectives",
"with",
"their",
"two",
"arguments",
",",
"modifiers",
"and",
"supplementary",
"text",
"spans",
".",
"Following",
"the",
"Penn",
"Discourse",
"Tree",
"Bank",
"(",
"PDTB",
")",
",",
"we",
"take",
"discourse",
"connectives",
"as",
"discourse-level",
"predicates",
"taking",
"two",
"(",
"and",
"only",
"two",
")",
"arguments",
",",
"called",
"Arg1",
"and",
"Arg2",
",",
"which",
"may",
"span",
"one",
"or",
"more",
"clauses",
"and",
"sentences",
"that",
"are",
"adjacent",
"or",
"nonadjacent",
"to",
"the",
"connective",
"(",
"Prasad",
"et",
"al",
"2007",
",",
"Webber",
",",
"2004",
")",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8090 | [
"data",
".",
"The",
"first",
"is",
"a",
"parser",
"trained",
"on",
"the",
"standard",
"training",
"sections",
"of",
"the",
"PennTreebank",
"(",
"PTB",
")",
"and",
"the",
"second",
"is",
"a",
"parser",
"trained",
"on",
"the",
"training",
"por-"
]
| [
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
1,
0,
0,
0,
0,
0,
4,
0,
0,
0,
0,
0,
0
]
|
8091 | [
"query",
"large",
"amounts",
"of",
"data",
"is",
"a",
"key",
"requirement",
"for",
"data-driven",
"dialog",
"systems",
",",
"in",
"which",
"the",
"data",
"is",
"generated",
"by",
"the",
"spoken",
"dialog",
"system",
"(",
"SDS",
")",
"components",
"(",
"spoken",
"language",
"understanding",
"(",
"SLU",
")",
",",
"di-"
]
| [
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
4,
0,
0,
4,
0,
0,
0,
0,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0,
4,
4,
4,
0,
1,
0,
0,
0
]
|
8092 | [
"Ah",
"receptor",
"recognizes",
"the",
"B",
"cell",
"transcription",
"factor",
",",
"BSAP",
"(",
"b",
")",
"Grf40",
"binds",
"to",
"linker",
"for",
"activation",
"of",
"T",
"cells",
"(",
"LAT",
")",
"(",
"c",
")"
]
| [
0,
0,
0,
0,
1,
0,
0,
0,
0,
2,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
4,
0,
0,
2,
0,
0,
4,
0
]
|
8093 | [
"pendencies",
".",
"Hochreiter",
"and",
"Schmidhuber",
"(",
"1997",
")",
",",
"thus",
"proposed",
"long",
"short",
"term",
"memory",
"(",
"LSTMs",
")",
",",
"a",
"variant",
"of",
"recurrent",
"neural",
"networks",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8094 | [
"the",
"affect",
"projection",
"rules",
"are",
"useful",
".",
"However",
",",
"when",
"we",
"use",
"automated",
"coreference",
"(",
"ACoref",
")",
",",
"recall",
"goes",
"down",
"and",
"precision",
"goes",
"up",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8095 | [
"tion",
")",
"strategies",
".",
"All",
"systems",
"are",
"evaluated",
"according",
"to",
"their",
"Mean",
"Average",
"Precision",
"6",
"(",
"MAP",
")",
"as",
"computed",
"by",
"the",
"trec",
"eval",
"software",
"on",
"the",
"pre-"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
4,
0,
0
]
|
8096 | [
"HN=highly",
"negative",
"terms",
",",
"N=negative",
",",
"P=positive",
",",
"HP=highly",
"positive",
",",
"INV=invertors",
",",
"DIM=diminishers",
",",
"INV=invertors",
"."
]
| [
0,
3,
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
0,
0,
0,
0,
0
]
|
8097 | [
"4.1",
"Test",
"Dataset",
"The",
"dataset",
"used",
"in",
"our",
"experiments",
"comes",
"from",
"the",
"Automated",
"Student",
"Assessment",
"Prize",
"(",
"ASAP",
")",
"1",
",",
"which",
"is",
"sponsored",
"by",
"the",
"William",
"and",
"Flora"
]
| [
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
3,
4,
4,
4,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
8098 | [
"These",
"are",
"typically",
"expressed",
"in",
"simple",
"syntactic",
"frames",
"called",
"subcategorization",
"frames",
"(",
"SCFs",
")",
"."
]
| [
0,
0,
0,
0,
0,
0,
0,
3,
0,
0,
4,
0,
0,
1,
0
]
|
8099 | [
"1",
"Introduction",
"Assigning",
"each",
"word",
"its",
"most",
"frequent",
"sense",
"(",
"MFS",
")",
"is",
"commonly",
"used",
"as",
"a",
"baseline",
"in",
"Word",
"Sense",
"Dis-"
]
| [
0,
0,
0,
0,
0,
0,
0,
3,
4,
0,
0,
1,
0,
0,
0,
0,
0,
0,
0,
0,
0,
0
]
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.