WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Авторефераты по темам  >>  Разные специальности - [часть 1]  [часть 2]

Автоматизация анализа массивов текстовых документов в информационно-коммуникационных средах

Автореферат кандидатской диссертации

 

На правах рукописи

 

НИКОЛАЕВА Ирина Викторовна

 

АВТОМАТИЗАЦИЯ АНАЛИЗА МАССИВОВ ТЕКСТОВЫХ ДОКУМЕНТОВ В ИНФОРМАЦИОННО-КОММУНИКАЦИОННЫХ СРЕДАХ

Специальность 10.02.21 – Прикладная и математическая лингвистика

 

Автореферат

диссертации на соискание ученой степени

кандидата филологических наук

 

 

 

                  

 

Москва 2008


Работа выполнена на кафедре прикладной и экспериментальной лингвистики Государственного образовательного учреждения высшего профессионального образования «МОСКОВСКИЙ ГОСУДАРСТВЕННЫЙ ЛИНГВИСТИЧЕСКИЙ УНИВЕРСИТЕТ»

Научный руководитель:                   доктор филологических наук,

профессор

Родмонга Кондратьевна Потапова

Официальные оппоненты:                доктор филологических наук, профессор

 Максименко Ольга Ивановна

кандидат филологических наук, доцент

                                                                Кедрова Галина Евгеньевна

Ведущая организация:                     Московский Технический Университет Связи

и Информатики

Защита диссертации состоится 17 марта 2008 г. в 11.30 часов на заседании диссертационного совета Д 212.135.02 при ГОУ ВПО МГЛУ по адресу: 119034, Москва, ГСП-2, ул. Остоженка, 38.

С диссертацией можно ознакомиться в диссертационном читальном зале библиотеки ГОУ ВПО МГЛУ

Автореферат разослан            11 февраля 2008 г.

Ученый секретарь

диссертационного совета                                                            В.С. Страхова


В настоящее время исследование тематической структуры текста приобрело особое практическое значение, поскольку совершенствование механизмов автоматического определения основной темы и подтем документа могло бы существенно улучшить эффективность информационного поиска в информационных системах. В течение нескольких последних десятилетий этой теме было посвящено большое число работ [E. Black, G. Demetriou, M.A. Hearst, J.J. Hopfield, D.Jurafsky, J.S. Justeson, S.M. Katz, A.Kilgarriff, J.Kupiec, C.Manning, D. Pearce, J.Pedersen, H.Schutze., P. Tapanainen, L. Van Guilder, D. Yarowsky, Н.Д. Арутюнова, Б.В. Добров, А.Е. Ермаков, Р.М.Жаркой, А.А. Зализняк, А.А. Кибрик, Т. Ю. Кобзарева, Б.П.Кобрицов, Н.В.Крапухина, Д.М. Кузнецов, Н.Н. Леонтьева, Н.В. Лукашевич, О.И.Максименко, Дж. Фон. Нейман, Л.В. Орлова, Е.В. Падучева, Р.Г.Пиотровский, В.В. Плешко, Д.А. Поспелов, Р.К.Потапова, Э. Хант, А.А. Харламов, Д.В.Чистов, Д.Н. Шмелев, Д.Е. Шуклин и др.].

Автоматизированный анализ естественно-языковых текстов является важной задачей, сориентированной на обработку больших объемов информации. Значительная часть всей доступной на сегодняшний день информации существует в виде неструктурированных текстов. Книги, журнальные статьи, научно-исследовательские работы, руководства по эксплуатации товаров, меморандумы, электронные письма и, конечно, всемирная сеть содержат естественно-языковую текстовую информацию. Результаты анализа массивов текстов связаны с процессом информирования и принятия правильных практических решений.

Процедура автоматизированной обработки текстовой информации обеспечит новый эффективный механизм как навигации, автоматического создания рефератов документов, группировки и классификации, сравнения текстов, так и поиска информации.

Данное диссертационное исследование посвящено проблемам разработки лингвистического и алгоритмического обеспечения, служащего для создания современной системы извлечения ключевой содержательной информации посредством применения широкого класса математических и лингвистических методов логико-аналитической обработки больших массивов естественно-языковых текстов.

Актуальность данного исследования обусловлена необходимостью решения задачи разработки алгоритмов для проведения достоверного автоматического анализа постоянно увеличивающегося объема информации, порождаемого в рамках информационно-коммуникационных сред. Наличие вышеуказанной необходимости объясняется тем, что в последние годы быстрый рост индустрии информационно-поисковых систем, стимулированный расширением сферы Интернета, сосуществует с фактором относительно слабой развитости автоматизированных средств анализа естественно языковой информации, что связано с недостаточной степенью разработки соответствующего лингвистического обеспечения.

Научная новизна диссертации заключается в том, что:

- впервые разработана обобщенная схема обработки массива публицистических текстов на естественном языке для подъязыка СМИ;

- впервые выявлены тенденции с учетом соответствия результатов обработки естественно-языкового текста, выполненной компьютером и человеком;

- впервые предложена модель текста как композиция формальных моделей ее компонентов, в основе которой лежит интеграция статистических и формальных лингвистических методов;

- впервые разработан алгоритм извлечения элементов смысла из массива текстов ограниченной тематики, включающий блок первичной семантической обработки, блок индексации и ранжирования понятий, блок установления связей, блок выявления тематического узла, блок установления попарной встречаемости, блок построения семантической сети, блок синтеза информации из сети.

Рабочей гипотезой исследования является предположение о том, что попытка автоматически проанализировать значительный объем информации, порождаемый в пределах информационно-коммуникационных сред, возможно сделает ненужными большинство классических операций обработки и подготовки текстовой информации.

Основная цель диссертации заключалась в разработке механизма построения информационного портрета [по А.Е. Ермакову] массива документов на основе элементов смысла. Данная цель обусловила необходимость решения следующих задач:

- проведение анализа существующих систем автоматической обработки текстовой информации,

- разработка поэтапного алгоритма автоматического анализа массива документов,

- создание модели извлечения смысла посредством автоматического анализа и синтеза информационного корпуса,

- нахождение характеристик механизма построения семантической сети,

- построение модели синтеза строк, представляющих в унифицированном виде все элементарные отношения между ключевыми словами и словосочетаниями в тексте.

Основными методами исследования явились: метод сплошной выборки, метод эксперимента, метод статистического анализа.

В качестве экспериментального материала диссертационного исследования был использован корпус газетных текстов на русском и английском языках, функционирующих в рамках компьютерных сетей.

Достоверность полученных результатов и обоснованность выводов обеспечивается репрезентативной выборкой использованного в ходе исследования материала и достаточным количеством испытуемых (3483 проанализированные лексические единицы, n = 37).

Объектом исследования является процесс автоматического анализа массивов документов.

Предметом исследования является разработка алгоритма автоматического анализа информационного массива ограниченной предметной области (международные отношения Россия - США).

Положения, выносимые на защиту:

- Комбинация лингвистических, статистических и математических методов приводит к оптимизации автоматической обработки естественно-языкового текста.

- Реальным является создание модулей анализа и представления текстовой информации на естественном языке, применяемых для автоматической генерации модели изучаемого текста, синтеза текстовой информации по полученной модели, различных видов реферирования текстов, автоматизации перевода текстов.

Теоретическая значимость диссертации заключается в том, что полученные результаты являются вкладом в теорию автоматического анализа текстовой информации, в теорию алгоритмизации автоматического анализа текстовых документов, а также в теорию автоматизированных систем в целом.

Практическая ценность диссертации заключается в следующем: полученные экспериментальные данные о различиях между результатами обработки текста, выполненной компьютером и человеком, проведение формального описания естественного языка на каждом языковом уровне, разработанный оригинальный анализатор для автоматической обработки текстовой информации в прикладных системах, а также результаты работы над алгоритмом автоматической обработки естественного языка могут быть использованы при разработке различных приложений: систем автоматического перевода, аннотирования и реферирования текстов, а также при чтении курсов по прикладной и математической лингвистике.

Основные результаты работы были апробированы на различных конференциях: 10-й Международной конференции SPECOM’2005 (‘Речь и компьютер’) (Патры, Греция, 17-19 октября 2005 г.), 11-й Международной конференции SPECOM’2006 (‘Речь и компьютер’) (Санкт-Петербург, 25-29 июня 2006 г.), 9-й Международной конференции Cognitive modeling in linguistics (‘Когнитивное моделирование в лингвистике’) (София, Болгария, 28 июля – 3 августа 2007) 12-й Международной конференции SPECOM’2007 (‘Речь и компьютер’) (Москва, 15-19 октября 2007 г.).

Цели и задачи исследования обусловили структуру диссертации, которая состоит из введения, трех глав, заключения и списка литературы.

Основное содержание работы

Во введении обосновывается актуальность исследования, определяются объект, предмет, гипотеза, цель, задачи и материал исследования, перечисляются методы исследования, раскрывается его научная новизна, теоретическая и практическая значимость, предлагаются рекомендации об использовании его результатов, формулируются положения, выносимые на защиту.

В первой главе «Существующие алгоритмы обработки естественного языка» рассматриваются задачи автоматической обработки текстов, на решение которых нацелены современные программные продукты, описываются особенности следующих алгоритмов обработки естественного языка с учетом прикладных задач:

1. Анализ тональности текста. Технология анализа тональности текста [С.Л. Киселев, А.Е. Ермаков, В.В. Плешко] позволяет распознать позитивное или негативное отношение автора текста к описываемому объекту или же выявить те составляющие образа объекта в тексте, которые призваны сформировать у читателя определенную окраску объекта по признаку ”позитив/негатив”. Следует отметить, что с высокой достоверностью удается выделить только негатив, тогда как подавляющая часть позитива оказывается скрытым негативом, иронией, или же перечеркивается рядом стоящим негативом.

2. Референция обозначений персон и организаций. Данная технология [Н.Д. Арутюнова, Е.В. Падучева, М.В. Лебедев, А.З. Черняк, А.А. Кибрик, Т.Ю. Кобзарева, А.Е. Ермаков, В.В. Плешко] включает в себя, во-первых, распознавание и разбор наименований объектов с выделением всех элементов наименования для последующего отождествления наименований и приведения их к заданному каноническому виду, и во-вторых, отождествление различных вариантов наименования одного и того же объекта в тексте, в том числе косвенных обозначений.

3. Поиск и классификация фактов. Технология фактографического поиска [В.А. Митюнин] предполагает настройку шаблонов для поиска и классификации фактов самых различных типов. Такие шаблоны создаются либо при помощи специальной программы-настройщика, которая позволяет строить шаблоны на основе типовых примеров, либо через настройку уже существующих стандартных шаблонов путем подключения требуемых словарей.

4. Эксплицирование элементов смысла. Этот метод [Г.В. Липинский, В.В. Плешко, А.Е. Ермаков] основан на использовании синтаксического анализатора с последующим преобразованием семантической сети во множество строк, которые представляют в унифицированном виде все элементарные отношения между сущностями в тексте.

Отдельное внимание уделяется использованию нейросетевой технологии, статистических методов, ассоциативных семантических сетей. Дается сравнительная оценка эффективности существующих программных продуктов для автоматического реферирования.

Основная цель нейросетевого подхода [D. Landau, R. Feldman, Y. Aumann, M. Fresko, Y. Lindell, O. Lipshtat, O. Zamir, J.J. Hopfield, А.А. Харламов, Р.М. Жаркой, В.И. Волков, Г.Н. Мацаков, Д.М. Кузнецов] - сформировать словарь слов и выявить связи между ними, поэтому на первом шаге формируется словарь слов. Но на втором шаге, вместо формирования последовательности аббревиатур путем фильтрации слов словаря, сформированного на первом уровне, анализируется попарная встречаемость слов в предложениях. Таким образом, выявляются связи между словами. Полученная информация представляет собой частотный портрет текста, который может быть визуализирован в виде сети слов словаря и их связей.

Семантическая сеть [И.А Мельчук, А.А. Харламов, Л.В. Орлова] представляет множество понятий текста - слов и словосочетаний, ассоциативно связанных между собой. В качестве критерия связности используется частота совместной встречаемости ключевых слов и словосочетаний в предложениях текста.

В результате анализа вышеперечисленных алгоритмов и технологий был сделан вывод, о том, что для достижения приемлемого качества решения практических задач не требуется полный грамматический анализ фразы. Достаточно выделить наиболее информативные единицы текста - ключевые слова, словосочетания, предложения и фрагменты, причем в качестве критерия информативности выступает частота повторения этих единиц в тексте.

Такой подход подтверждается также нейропсихологическими исследованиями, в которых установлено, что анализ текста человеком опирается преимущественно на зрительное пространственно-предметное восприятие и реализуется правым полушарием мозга, представляющим ассоциативную семантико-статистическую модель мира [Т.Б. Глезерман, Н.Н. Брагина, Т.А. Доброхотова]. Глубинная семантика сообщения изначально определяется структурой правополушарной модели и отражается в коммуникативном строении текста как иерархии тем и рем с соответствующей им совокупностью сверхфразовых единств [Т.В. Ахутина].

На основе этой точки зрения появился подход, в основе которого лежит представление смысла текста в форме ассоциативной семантической сети [А.А. Харламов, А.Е. Ермаков, Д.М. Кузнецов], узлы которой представлены множеством часто встречавшихся понятий текста - слов и устойчивых словосочетаний, из числа которых исключены общеупотребимые слова. Такая семантическая сеть может быть автоматически построена на базе множества текстов и использована впоследствии как модель предметной области для анализа неизвестных документов.

Учитывая сверхфразовую связность сообщения в целом, считается, что наиболее вероятно обуславливание темы высказывания предшествующей темой или ремой, что отражает сохранение фокуса внимания или его переключение на связанный узел сети. Результатами такого анализа являются: набор ключевых тем документа, представленных ключевыми словами и словосочетаниями семантической сети и ранжированных по релевантности; тематические резюме по ключевым темам, представленные наиболее информативными сверхфразовыми единствами; общий реферат, составленный из наиболее информативных сверхфразовых единств по ключевым темам.

Во второй главе «Поуровневый анализ естественно-языкового текста в системах автоматической обработки» приводится механизм анализа отдельных слов, описываются различные методы снятия омонимии, дается оценка их эффективности, рассматриваются различные способы анализа отдельных предложений. Предлагается развернутая классификация методов синтаксического анализ с учетом их использования в прикладных системах. Детально исследуются многочисленные процедуры семантического анализа фразы в рамках алгоритма поверхностного семантического анализа.

Существует три основных подхода к проведению морфологического анализа. Первый подход часто называют «четкой» морфологией [А.А. Зализняк]. Второй подход основывается на некоторой системе правил, по заданному слову определяющих его морфологические характеристики; в противоположность первому подходу его называют «нечеткой» морфологией [Гарант-Парк-Интернет]. Третий, вероятностный подход, основан на сочетаемости слов с конкретными морфологическими характеристиками [SRILM], он широко применяется при обработке языков со строго фиксированным порядком слов в предложении.

Методы снятия омонимии включают как традиционные системы, использующие правила, созданные вручную - общие контекстные правила и правила-шаблоны [S.Weiss], системы на основе данных словарей [Y.Wilks, L.Gutrie, G.Demetriou, E.Atwell, M.Stevenson], вручную размеченных тренировочных корпусов [E.Black, M.A.Hearst, D.Yarowsky], переводных словарей и переводных корпусов [I.Dagan, W.A.Gale], тезаурусов [M.Masterman, A.B.Patrick, M.Sussna], так и современные системы, использующие методы автоматического тезаурирования [A.Kilgarriff] и устойчивых коллокаций [Д.Н.Шмелев].

Что касается методик синтаксического анализа, то исторически первым способом описания синтаксиса языка были формальные грамматики [Э.Хант], а затем трансформационные грамматики [Э.Хант]. Позже появились вероятностные грамматики [C.D.Manning, H.Schutze], расширившие формальные грамматики. Каждому правилу построения предложения была указана некоторая вероятность применения этого правила.

Синтаксический анализ на основе обучающихся систем заключается в разработке множества примеров, содержащих пару: исходное предложение и результат его синтаксического анализа, который вводится человеком, занимающимся обучением системы, в ответ на каждое подаваемое на вход предложение. Цель синтаксического анализа – построение синтаксических групп с помощью синтаксических правил. 

При построении естественно-языковых интерфейсов проблемы повышения эффективности, удобства, учета особенностей речи и ошибок ввода решаются с помощью "семантической грамматики" - грамматики, в которой категории обозначают как семантические, так и синтаксические понятия.

Семантический анализ текста базируется на результатах синтаксического анализа, получая на входе набор деревьев, отражающих синтаксическую структуру каждого предложения. Большинство методов семантического анализа сориентированы на такую единицу, как слово. Поэтому существует тезаурус языка - общая для всех методов база. На математическом уровне он представляет собой ориентированный граф, узлами которого являются слова в их основной словоформе. Семантическая структура предложения состоит из семантических узлов и семантических отношений. Семантический узел – это такой объект текстовой семантики, у которого заполнены все валентности, как эксплицитно выраженные в тексте, так и имплицитные – те, которые получаются из экстралингвистических источников. Вход семантического анализа – это синтаксическое представление предложения. Выход семантического анализа – это множество семантических структур, построенных на основе входного синтаксического представления.

Лингвистический анализ содержания текста позволяет выявить связи между описанными в нем событиями и предметами. Совокупность имен всех предметов (одушевленных и неодушевленных) и событий с их взаимосвязями образует семантическую сеть. В зависимости от характера отношений сети могут быть разного типа. Единого мнения в вопросах классификации семантических сетей у специалистов по искусственному интеллекту нет. Семантические сети часто рассматривают как наиболее общий формализм для представления знаний.

Таким образом, проведенный анализ современных прикладных систем обработки естественного языка позволил выявить следующие тенденции: большинство современных систем обработки естественного языка опирается на математику и статистику, что вызывает следующие трудности – во-первых, естественный язык является слабо формализуемой областью знаний, и во-вторых наблюдается огромная пропасть между возможностями аппаратных средств и методами решения задач обработки текста, то есть в дополнение к математическим и статистическим методам должны использоваться лингвистические методы, которые приводят к реальным результатам.

Необходимо особо отметить тот факт, что лингвистика, инженерия знаний и искусственный интеллект непосредственно связаны между собой и не могут быть изолированы друг от друга в решении задач описания естественных языков.

В настоящее время существуют сложные лингвистические алгоритмы, которые позволяют проводить полный синтактико-семантический анализ текста на естественном языке. Но, тем не менее, большинство современных систем обработки естественного языка опирается на методы математической статистики и теории вероятностей.

Наиболее освоенные на сегодня методы базируются на хорошо формализованных алгоритмах, полученных в результате построения математических моделей предметных областей. Такой тип обработки данных далеко не всегда подходит для систем автоматической обработки текста на естественном языке, который принадлежит к числу плохо формализуемых систем, так как для него плохо изучены аналитические зависимости или цепочки действий, приводящие к результату без интеллектуального вмешательства человека.

Основная трудность заключается в том, что нельзя с уверенностью сказать, что набор параметров, описывающий объекты данной предметной области, наверняка полон и адекватен, а сами измеренные значения параметров в совокупности также полны и непротиворечивы. Все это не позволяет применять для решения плохо формализуемых задач только лишь традиционные статистические методы.

Именно поэтому в дополнение к «традиционным» математическим методам появляются детально проработанные, проверенные экспериментально лингвистические методы.

В третьей главе «Модель алгоритма обработки естественно-языкового текста» описывается проведенный эксперимент, приводятся выводы, основанные на его результатах.

Целью эксперимента по методике, предложенной Р.К. Потаповой, стало выявление различий между результатами обработки естественно-языкового текста, выполненной компьютером и человеком для оценки эффективности компьютерной обработки естественно-языкового текста. Испытуемым было предложено провести ранжирование смысловых блоков, позволяющих передать содержание текста, определить предложения, несущие основную смысловую нагрузку, выписать ключевые слова и словосочетания и расставить их в порядке уменьшения смысловой нагрузки от максимальной до минимальной.

Для выполнения машинной обработки была выбрана компьютерная программа TextAnalyst, реализованная российскими разработчиками компании "Микросистемы". Система реализована на основе однородной нейросетевой обработки информации.

Проанализировав предложенный материал, TextAnalyst формирует сеть основных (наиболее значимых) понятий, содержащихся в представленных ему текстах. Сеть понятий - это множество понятий из текстов - слов и словосочетаний, связанных между собой по смыслу. В сеть включены не все понятия текста, а лишь наиболее значимые, несущие основную смысловую нагрузку. Аналогичным образом представлены и смысловые связи между понятиями текстов. Связь между парой понятий сети всегда двусторонняя.

При проведении эксперимента была использована функция автоматического реферирования. Формируемый реферат содержит список наиболее информативных предложений текстов (тезисов).

Материалом для экспериментального исследования послужила подборка публицистических текстов на тему «Международные отношения: Россия - США». Все тексты были взяты с Интернет-сайтов различных информационных служб.

В ходе эксперимента было установлено, что программа включает предложение текста в реферат, используя данные о наличии в нем ключевых слов (чем выше вес ключевых слов в предложении, тем больше вес самого предложения). Испытуемые выбирали те предложения, без которых, по их мнению, невозможно адекватное отражение содержания первичного текста вне зависимости от их количества и наличия в них ключевых слов. В результате средний объем реферата у испытуемых составил 45,7% от исходного текста (максимальный 53%), по сравнению с 23,9% в программном варианте (максимальный 25%).

Среднее количество простых предложений в составе сложных по данным испытуемых составило 3,47, по данным программы – 2,07. Это связано с тем, что предложения, помеченные испытуемыми как ключевые, являлись наиболее длинными предложениями текста. Программа выделяет ключевые предложения в зависимости от количества в них ключевых слов – соответственно, чем длиннее предложение, тем выше вероятность появления в нем ключевых слов, и, следовательно, тем выше вероятность, что оно само окажется ключевым. Существенная разница между вышеперечисленными средними значениями объясняется тем, что количество ключевых слов, отмеченных программой, всегда было выше, чем соответствующий показатель у испытуемых. Так как работа программы основана большей частью на статистических методах, то ключевые предложения были разной длины.

Большинство ключевых слов, отмеченных как испытуемыми, так и программой, оказалось существительными (объекты), на втором месте – прилагательные (атрибуты), на третьем – глаголы (действия). Доля остальных частей речи – незначительная, так как они встречаются не как самостоятельные ключевые слова, а исключительно в словосочетаниях (например, poisoned with thallium, one more example, murdered journalists, очень влиятельный, борьба за власть).

Если сопоставлять множества ключевых элементов, выбранные испытуемыми и программой, не учитывая веса, то следует отметить, что множество с учетом данных испытуемых полностью входит в множество данных программы (обратное неверно, так как в ходе эксперимента второе множество всегда превышало первое).

Проведенный эксперимент показал, что совокупные наборы ключевых слов и словосочетаний, выделенных испытуемыми и компьютерной программой, почти полностью совпадают, однако при ранжировании выделенных элементов по степени информативности выяснилось, что процент совпадений тем выше, чем выше смысловой вес выделенного ключевого слова или словосочетания. Тот факт, что компьютер и испытуемые помечали одни и те слова и словосочетания как ключевые, но при этом каждый присваивал одному и тому же объекту разную степень информативности, свидетельствует об отсутствии фоновых знаний у компьютерной программы и о разном уровне фоновых знаний у испытуемых (чем шире познания в данной области, тем ниже информативность).

В третьей главе также предлагается модель текста как композиция формальных моделей ее компонентов, разрабатывается обобщенная схема обработки естественного языка, определяются алгоритмы первичной семантической обработки, индексирования понятий, установления семантических связей, выявления тематических узлов, построения семантической сети, синтеза информации из сети.

Разработанный алгоритм обработки естественно-языкового текста позволил сделать вывод, что обсуждаемые в тексте ключевые слова связаны между собой разнообразными семантическими связями, многие из которых могут использоваться для организации тематической структуры того или иного текста. Для того чтобы автоматически выявлять основные ключевые слова и словосочетания текста на основе имеющегося лингвистического ресурса необходимо восстановить сеть понятий, используемых в данном тексте, разбить сеть на совокупность тематических узлов и выделить основные тематические узлы.

На базе предложенных методов обработки могут быть созданы модули анализа и представления текстовой информации на естественном языке, применяемые для автоматической генерации модели изучаемого текста, синтеза текстовой информации по полученной модели, различных видов реферирования текстов, автоматизации перевода текстов, автоматического контроля усвоения материалов пользователем, который обучается языку.

В результате исследования построена лингвистическая модель извлечения элементов смысла из массива текстов ограниченной тематики, в основе которой лежит интеграция статистических и формальных лингвистических методов.

Модель включает:

  • блок первичной семантической обработки;
  • блок индексации и ранжирования понятий;
  • блок установления связей;
  • блок выявления тематического узла;
  • блок установления попарной встречаемости;
  • блок построения семантической сети;
  • блок синтеза информации из сети (см. Таблицу 1).

Таблица 1.

Модель алгоритма извлечения элементов смысла из массивов ограниченной тематики

Блок первичной семантической обработки

Создание узла для каждой жесткой группы или одиночного слова

Дифференцирование синтаксических групп

Определение синтаксических вариантов

Выход

Определение лексических вариантов

Блок индексации и ранжирования понятий

Вход

Сравнение единиц текста с единицами тезауруса

Отображение текста в последовательность дескрипторов тезауруса

Фиксирование частоты встречаемости каждого дескриптора и множества дескрипторов тематически близких ему

Выход

Набор бинарных отношений

Блок установления связей

Вход

Определение концептуальных связей по заданным правилам

Суммирование текстовых связей дескрипторов каждого тематического узла

Выход

Определение текстовых связей между тематическими узлами.

Блок выявления тематических узлов

Вход

Восстановление понятийной сети

Определение связей, которые можно использовать в тематических узлах

Анализ распределения связей в тексте

Выбор главного дескриптора тематического узла

Выбор основных тематических узлов

Выход

Тематическое представление текста, его частотный портрет

Блок установления попарной встречаемости

Вход

Выход

Ренормализация числовых характеристик слов

Блок построения семантической сети

Вход

Создание иерархии связанных тем и подтем

Выход

Тематическая структура в виде дерева

Блок синтеза информации из сети

Вход

Локализация объектов семантической сети

Определение фрейма генерируемого предложения

Фиксирование дополнительных объектов сети и их свойств

Выход

Генерация текстовой информации

Блок первичной семантической обработки создает узел для каждой жесткой группы или одиночного слова. В этот узел переносятся вся необходимая информация о слове, которая разбивается на конечное число отдельных элементов и преобразуется в синтаксические характеристики узла. Синтаксические отношения дифференцируются на слабые и сильные. Сильные отношения только интерпретируются, а слабые могут быть удалены, так как только сильные отношения обычно устанавливаются без ошибок.

Для каждого фрагмента предложения блок выбирает синтаксический вариант, то есть набор морфологических вариантов с максимальным покрытием. Семантический узел приравнивается к множеству словарных выходов, приписанных каждому узлу процедурой построения словарных интерпретаций. Словарная интерпретация может относиться к одному узлу (интерпретация закрытого словосочетания), а также к некоторому множеству узлов (интерпретация открытого словосочетания). Каждому узлу открытого словосочетания блок приписывает ссылку на словарную статью и номер элемента, к которому приравнен данный узел.

Лексическим вариантом в блоке считается фрагмент, в котором для каждого узла указана одна возможная словарная интерпретация. Необходимо отметить что число узлов, которые необходимо рассматривать в лексических вариантах в случаях, когда в синтаксическом варианте фрагмента было найдено хотя бы одно закрытое словосочетание, будет разным, так как одном варианте в узел словосочетания войдет несколько слов.

Блок индексации и ранжирования понятий сначала сравнивает единицы текста с единицами тезауруса, в результате чего текст отображается в последовательность дескрипторов тезауруса. Блок фиксирует частоту встречаемости каждого дескриптора и множество дескрипторов тематически близких ему. Таким образом, на выходе блока получают набор бинарных отношений внутри заданного множества слов естественного языка.

Блок установления связей отмечает концептуальные связи, которые должны отражать реальные лексические связи в тексте. Набор, позволяющий определить саму связь и избежать поиск названия связи, является конечным. Это связи «выше-ниже», «частное-общее», «ассоциация». Таким образом соединяется как можно более широкий набор понятий через связь в несколько отношений, так как каждая связь определяет конкретный путь в тезаурусе. Данные связи используются для реконструкции семантических связей в тексте, анализа их структуры и структурной организации связного текста, которая построена на скрытых семантических связях между словами. Затем в блоке суммируются текстовые связи дескрипторов каждого тематического узла и определяются текстовые связи между тематическими узлами.

Блок выявления тематических узлов сначала должен восстановить понятийную сеть и определить связи, которые можно использовать в тематических узлах, а потом анализировать их распределение в тексте. Очевидно, что определение тематического узла и, следовательно, определение понятия – довольно сложный процесс. После выбора главного дескриптора тематического узла, блок собирает тематические узлы сначала вокруг дескрипторов заголовка и первого предложения, а затем вокруг остальных дескрипторов, начиная с самых частотных. Основными тематическими узлами являются те, которые все связаны между собой и сумма частот связей между ними максимальна. На выходе этого блока получают тематическое представление текста, в котором все понятия разбиты на тематические узлы, между которыми зафиксированы связи.

На входе блока установления попарной встречаемости полученная ранее информация представляется в виде частотного «портрета», который можно визуализировать как сеть, состоящую из слов тезауруса и связей между ними. И слова, и связи между ними имеют частотные характеристики. Необходимо также провести операцию ренормализации числовых характеристик слов. Слово должно увеличивать свой вес после каждой итерации в случае, если оно связано с множеством других весомых слов, а остальные слова соответственно должны терять вес.

Можно предположить, что текст посвящен не понятийному обсуждению, а описанию связей между словами. Поэтому не только основные понятия и элементы их тематических узлов наиболее частотны, но и пары различных основных понятий и элементы их тематических узлов, которые должны встречаться в тексте чаще, чем, например, элементы одного и того же тематического узла. Это означает, что если два понятия, связанные в тезаурусе одним из пяти концептуальных путей, часто встречаются в одном предложении, то ни одно из этих понятий не входит в тематический узел другого.

Блок построения семантической сети создает исчерпывающее наглядное представление о содержании текста. Информация сети отражает все потенциально присутствующие смысловые связи. Сеть представляет собой структурированные хранилища информации и набор правил вывода, позволяющий компьютеру производить рассуждения в автоматическом режиме.

Обработка реализуется таким образом, чтобы представить семантическую сеть в виде тематической структуры, так как множественность связей сети неудобна для структурированного представления, в то время как тематическая структура описывает содержание анализируемых текстов в виде иерархии связанных тем и подтем, которые соответствуют иерархии тематической сети. Тематическая структура, таким образом, имеет вид древа, в корне которого стоят главные темы, в ветвях – подтемы, и каждая ветвь дерева конечна.

Работа блока синтеза информации из сети включает два этапа. Сначала он локализует объекты в семантической сети на основе анализа поступившей от пользователя информации, а затем генерирует текстовую информацию. Генерация текстовой информации происходит по следующему алгоритму. На основе фрейма поступившего от пользователя предложения определяется фрейм генерируемого предложения. Далее, исходя из структуры найденного фрейма и информации о локализованных (главных) объектах, фиксируются дополнительные объекты семантической сети и их свойства, необходимые для генерации предложения на базе заданного фрейма.

Проведенный эксперимент и разработка модели алгоритма автоматической обработки текстовой информации позволили выделить основные трудности, возникающие при автоматическом анализе естественно-языкового текста, а именно:

- большинство ключевых слов и словосочетаний в тексте одновременно связаны различными типами связи;

- ключевые слова и словосочетания основной темы связаны с помощью тех же концептуальных типов, которые были использованы для создания тематических узлов;

- связи и способы могут варьироваться: в одном тексте определенная группа слов и словосочетаний образует один тематический узел, а в другом – разные тематические узлы.

Все вышесказанное свидетельствует о том, что правильное определение узлов и ключевых слов и словосочетаний требует многоаспектного анализа. Это означает, что автоматическая система сначала должна восстановить понятийную сеть и определить связи, которые можно использовать в тематических узлах, а потом анализировать их распределение в тексте.

В процессе разработки алгоритма были сделаны следующие выводы:

  • Для того чтобы автоматически выявить ключевые слова на основе имеющегося лингвистического ресурса необходимо:
  • восстановить сеть ключевых слов, используемых в данном тексте;
  • разбить сеть на совокупность тематических узлов, используя знания о способах соединения ключевых слов внутри тематических узлов, учитывая информацию о взаимной встречаемости связанных по тезаурусу слов в одних и тех же предложениях данного текста;
  • выделить основные тематические узлы среди всей совокупности тематических узлов.
  • Обсуждаемые в тексте ключевые слова связаны между собой разнообразными семантическими связями, многие из которых могут использоваться для организации тематической структуры того или иного текста.
  • Выявление семантических связей в тексте позволяет выбрать главные дескрипторы тематических узлов, определить сами тематических узлы, связи между узлами, и, таким образом, восстановить понятийную сеть документа.
  • Благодаря установлению попарной встречаемости ключевых слов и словосочетаний, информация текста представляется в виде частотного портрета, состоящего из слов и словосочетаний тезауруса и связей между ними.
  • Информация семантической сети содержит все ключевые слова и словосочетания текста, а также все установленные семантические связи и в полной мере отражает содержание текста.

Разработанная модель алгоритма извлечения информации допускает дальнейшее развитие и может быть использована при разработке программных продуктов, нацеленных на автоматическую обработку текстовой информации.

Основные положения диссертации отражены в следующих публикациях:

  • Nikolaeva I. Automated Natural Language Text Analysis with Superphrasal Structure Detection (статья на английском языке) // Specom 2005 Proceedings (Patras, 17-19 October, 2005) М, МГЛУ, 2005. – 0.5 п.л.
  • Nikolaeva I. Automated Detection of Semantic Connections in the Text Subject Organization (статья на английском языке) // Specom 2006 Proceedings (St. Peterburg, 25-29 June 2006), Санкт-Петербург, СПИИРАС, 2006. – 0.5 п.л.
  • Николаева И.В. Объектный подход к механизму обработки естественно-языкового текста (статья) // Сборник «Исследования молодых ученых», Минск, МГЛУ, 2006. – 0.5 п.л.
  • Николаева И.В. Автоматизация установки связей между понятиями в естественно-языковом тексте (статья) // Международная Конференция Российской Научной Школы «Инноватика - 2006», Ч. 3, Т. 2 – М., Радио и связь, 2006. – 0.5 п.л.
  • Николаева И.В. Алгоритм выявления сверхфразовых структур в текстовом массиве в информационно-коммуникационных средах (статья) // Международная Конференция Российской Научной Школы «Инноватика - 2006», Ч. 3, Т. 2 – М., Радио и связь, 2006. – 0.5 п.л.
  • Николаева И.В. Выявление сверхфразовой структуры в задачах автоматического анализа естественно-языкового текста (статья) // Вестник МГЛУ. Вып. 556. - М: МГЛУ, 2007. – 0.5 п.л.
  • Nikolaeva I. The Experimental Approach to Developing the Automated Text Processing Algorythm (статья на английском языке) // Когнитивное моделирование в лингвистике, Труды IX международной конференции (София, 28 июня – 3 августа 2007), ред. В.Соловьев, Р. Потапова, В. Поляков – Казань: Казанский Государственный Университет, 2007. - 0.3 п.л.
  • Potapova R., Nikolaeva I. The Experimental Analysis of the Differences between the Results of the Natural Language Text Processing Made by the Computer and the Human (статья на английском языке) // Specom 2007 Proceedings (Moscow, 15-17 October 2007), М., МГЛУ, 2007. – 0.5 п.л., доля автора – 0.25 п.л.
 
Авторефераты по темам  >>  Разные специальности - [часть 1]  [часть 2]



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.