Аннотации:
Большинство методов интеллектуального анализа текстов используют векторную модель
представления знаний. Векторная модель использует частоту (вес) терма, чтобы определить его
важность в документе. Термы могут быть схожи семантически, но отличаться лексикографически, что,
в свою очередь, приведет к тому, что классификация, основанная на частоте термов, не даст нужного
результата.
Причиной ошибок является отсутствие учета таких особенностей естественного языка, как синонимия
и полисемия. Неучет этих особенностей, а именно синонимии и полисемии, увеличивает размерность
семантического пространства, от которой зависит быстродействие конечного программного продукта,
разработанного на основе алгоритма. Кроме того, результаты работы многих алгоритмов сложно
воспринимаются экспертом предметной области, который подготавливает обучающую выборку, что, в свою
очередь, также сказывается на качестве выдачи алгоритма.
В работе предлагается модель, которая помимо веса терма в документе, так же использует
«семантический вес терма». «Семантический вес термов» тем выше, чем они семантически ближе друг
к другу.
Для вычисления семантической близости термов будем использовать адаптацию расширенного
алгоритма Леска. Метод расчета семантической близости состоит в том, что для каждого значения
рассматриваемого слова подсчитывается число слов упомянутых как в словарном определении данного
значения (предполагается, что словарное определение содержит описание нескольких значений слова),
так и в ближайшем контексте рассматриваемого слова. В качестве наиболее вероятного значения слова
выбирается то, для которого такое пересечение оказалось больше. Векторная модель с учетом семантической
близости термов решает проблему неоднозначности синонимов. Most of text mining algorithms uses vector space model of knowledge representation. Vector space model uses
the frequency (weight) of term to determine its importance in the document. Terms can be semantically similar
but different lexicographically, which in turn will lead to the fact that the classification is based on the frequency
of the terms does not give the desired result.
Analysis of a low-quality results shows that errors occur due to the characteristics of natural language, which
were not taken into account. Neglect of these features, namely, synonymy and polysemy, increases the dimension of
semantic space, which determines the performance of the final software product developed based on the algorithm.
Furthermore, the results of many complex algorithms perceived domain expert to prepare training sample, which
in turn also affects quality issue algorithm.
We propose a model that in addition to the weight of a term in a document also uses semantic weight of the
term. Semantic weight terms, the higher they are semantically closer to each other.
To calculate the semantic similarity of terms we propose to use a adaptation of the extended Lesk algorithm.
The method of calculating semantic similarity lies in the fact that for each value of the word in question is counted
as the number of words referred to the dictionary definition of this value (assuming that the dictionary definition
describes several meanings of the word), and in the immediate context of the word in question. As the most
probable meaning of the word is selected such that this intersection was more. Vector model based on semantic
proximity of terms solves the problem of the ambiguity of synonyms.
Описание:
Бондарчук Дмитрий Вадимович, к.ф-м.н., доц., Уральский государственный
университет путей сообщения (Челябинск, Российская Федерация). D.V. Bondarchuk
Ural State University of Railway Transport
(st. Kolmogorova 66, Yekaterinburg, 620034 Russia)
E-mail: dvbondarchuk@gmail.com