WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!


Pages:     || 2 |
-- [ Страница 1 ] --

Московский государственный университет культуры и искусств

На правах рукописи

СБОЙЧАКОВ КОНСТАНТИН ОЛЕГОВИЧ АВТОМАТИЗИРОВАННАЯ СИСТЕМА СМЫСЛОВОЙ ОБРАБОТКИ ТЕКСТОВ ПРИ СОЗДАНИИ ЭЛЕКТРОННЫХ ФОНДОВ

БИБЛИОТЕКИ Специальность 05.25.05 – Информационные системы и процессы, правовые аспекты информатики Диссертация на соискание ученой степени кандидата технических наук

Научный консультант: кандидат технических наук А.О. Адамьянц Научный консультант: доктор физико-математических наук, профессор П.П.Макагонов Москва-2003 2 ОГЛАВЛЕНИЕ Введение Глава 1. Автоматизированная система смысловой обработки текстов 14 5 1.1. Обзор существующих программных продуктов анализа текстов 1.2. Смысловая обработка текстов в полнотекстовых базах данных. 1.3. Описание работы системы автоматизированного смыслового анализа текстов Глава 2. Система визуального эвристического кластерного анализа Visual HCA 2.1. Экспертные системы и система визуального эвристического анализа – сходства и отличия 2.2. Методы, ориентированные на данные 2.3. Возможности системы Visual HCA 2.4. Примеры применения Глава 3. Описание работы алгоритмов классификации текстов 3.1. Алгоритм отбора слов в естественно-тематический словарь 74 74 45 47 50 70 45 31 21 3.2. Алгоритм разбиения основного естественнотематического словаря на ряд предметно-ориентированных словарей 3.3. Алгоритм создания естественно-тематического классификатора 3.3. Сравнение текстов в алгоритме смыслового анализа 3.5. Алгоритм расчета близости текстов заданному текстуобразцу Глава 4. Система смысловой обработки текстов в современной библиотеке как перспективное направление развития ИРБИС 4.1. Автоматизированная библиотечная система ИРБИС в ГПНТБ России 4.2. Разница между системой смыслового анализа для ИРБИС32 и ИРБИС64 4.3. Методика подготовки специалистов библиотеки для работы с системой 4.4. Последовательность операций при создании и ведении базы данных ИРБИС при использовании системы 110 111 115 118 118 смыслового анализа текстов 4.5. Система смысловой обработки текстов в Интернете Заключение Приложение. Эвристика образного анализа 1. Пояснения работы системы визуального эвристического анализа Visual HCA 102 107 108 102 96 88 90 2. Иллюстрации возможностей программы на 138 сформированных модельных данных Список использованной литературы 5 Введение Актуальность темы. В последние годы количество текстовой информации в электронном виде возросло настолько, что возникает угроза ее обесценивания в связи с трудностями поиска требуемых сведений среди множества доступных текстов. В настоящее время все большее Крупные распространение получают полнотекстовые базы данных.

образовательные центры организуют в Интернете для студентов и сотрудников базы научных статей, авторефератов, многие организации предоставляют доступ к ресурсам электронных библиотек, оргкомитеты конференций публикуют тысячи полных текстов докладов и т.п. Данная работа исследует проблему и предлагает научнообоснованную методику создания полнотекстовых баз данных на основе текстовой информации, накопленной в электронном виде. В данной диссертации предполагается рассматривать полнотекстовые базы данных, создаваемые библиотекой, как часть электронного фонда библиотеки, а электронный фонд, по существу, есть часть общего фонда библиотеки со всеми приданными ему характеристиками. В общедоступных библиотеках такой массив текстов документов обычно возникает как результат сканирования текстов по частным заказам пользователей. С возрастанием объемов накопленной информации возникает задача смыслового поиска и экспертного статистического анализа данных с целью предоставить пользователю возможность правильно ориентироваться в среде электронных фондов большого объема, а эксперту – возможность выделять подклассы текстов по заданной тематике (в дальнейшем - естественно-тематические группы текстов). В настоящее время в мире существуют и активно развиваются системы смыслового поиска в полнотекстовых базах данных, которые поддерживаются ведущими фирмами - производителями серверов баз данных, например, Oracle, Microsoft, IBM и др. Такие системы строятся на основе многомерных хранилищ, из которых данные извлекаются и обрабатываются с помощью алгоритмов для заранее определенных субъектобъектных отношений между ними. Крупные поисковые серверы в Интернете (например, Yahoo, Yandex) поддерживают алгоритмы поиска текстов “схожих” с данным и расчета релевантности найденных документов исходному запросу. Специализированные системы полнотекстового анализа (например, в России это “Следопыт”, ”ТекстАналист”) позволяют проводить автоматическую классификацию и реферирование текстов. Разработанность проблемы. Исследования в области автоматической обработки текстов в Европе и США привлекают внимание крупнейших частных фирм и государственных организаций самого высокого уровня. Европейский Союз уже несколько лет координирует различные программы в области автоматической обработки текстов (например, проект IST, 19982001 гг.). В США с 1991 по 1998 гг. существовал проект TIPSTER, организованный Департаментом обороны совместно с Национальным институтом стандартов и технологий и Центром военно-воздушных и военно-морских вооружений. В работе консультативного совета этого проекта участвовали также ФБР, Национальный научный фонд и некоторые другие организации. Основной целью проекта было сравнение и оценка результатов работы различных поисковых систем и систем реферирования. По результатам проекта был опубликован подробный обзор и даны рекомендации по использованию этих систем. В США среди систем подобного рода наиболее известной является электронная архивная система “Excalibur RetrievalWare” производства компании Excalibur Technologies. Программные продукты этой компании используются Госдепартаментом, Библиотекой Конгресса, ЦРУ, компаниями Ford Motors, Lockheed, Reynold Electrical & Engineering, Maine Yankee Atomic Power. Создание систем смыслового анализа текстов до настоящего времени происходит с минимальным участием лингвистов. Это обусловлено использованием для решения этой задачи в основном статистических методов. Области, в которых наиболее сильны позиции профессиональных лингвистов, это в первую очередь лексико-грамматический и синтаксический анализ предложения, нахождение имен собственных в тексте и автоматическое реферирование. Научный и практический опыт лингвистов получил широкое применение в системах автоматического перевода и контекстного анализа, при создании тезаурусов и словарей, и т.д. Наиболее известные лингвистические программные продукты на рынке России: • “Retrans Vista” - система автоматизированного перевода текстов. Система базируется на технологии фразеологического перевода компании “Виста Текнолоджиз”, образованной специалистами из Всероссийского института научной и технической информации Российской Академии наук (ВИНИТИ РАН), стоящими у истоков создания отечественной компьютерной лингвистики. Группа этих специалистов под руководством профессора Г.Г. Белоногова начала разрабатывать основы технологии машинного перевода более 20 лет назад [11];



• “MediaLingua”, “ABBYY Lingvo” - электронные словари;

• “PROMT” - системы машинного перевода;

• развитые средства контроля орфографии “Microsoft Word”;

•в научно-производственном на центре “Интелек Плюс” ведется (ИПС), с разработка информационно-поисковых систем ориентированных пользователем [92].

естественно-языковое общение Современные системы смыслового анализа текстов, особенностью которых являются: предпочтение скорости обработки текстов точности семантического и морфологического анализа, статистический частотный анализ словоупотреблений, автоматическая классификация текстов, расчет релевантности текстов поисковому запросу - можно выделить в отдельный класс, к которому относится и система, разработанная автором данной диссертации. В России исследования в области информационных систем и информационного поиска были сосредоточены главным образом в сети органов научно-технической информации, которая практически рухнула в результате событий 1990-х гг. [5,6,8] В то же время произошла смена поколений информационных систем: сначала переход с больших ЭВМ на персональные, а затем распространение Интернета. В результате в стране практически исчезли созданные в 1980-х гг. и ранее информационные системы, основанные на известных моделях лингвистического обеспечения. В настоящее время работы по смысловому анализу текстов главным образом ведутся: • в Институте программных систем РАН. Разработана система “Кластер” для формирования концептуального представления предметной области на основе анализа проблемно-ориентированных естественно-языковых текстов [106];

• в корпорации “Галактика”. Разработана автоматизированная система поиска и аналитической обработки информации “Galaktika-ZOOM”. Это дорогая коммерческая система, имеющая клиентов в рекламном бизнесе, органах управления и средствах массовой информации [74];

• в компании “Гарант-Парк-Интернет”. Разработаны программные продукты для анализа и классификации текстов, автоматического реферирования, морфологичеcкого, синтаксического и семантического анализа текста, для навигации по большим массивам текстов [72];

• в Научно-производственном инновационном центре "МикроСистемы". Разработана построение система “ТекстАналист”. сети Система осуществляет в семантической понятий, выделенных обрабатываемом тексте, смысловой поиск фрагментов текста с учетом скрытых в тексте смысловых связей со словами запроса, автоматически реферирует текст [170];

• в компании “MediaLingua”. Разработана интеллектуальная система “СЛЕДОПЫТ”, служащая для быстрого поиска текстовых фрагментов документов в больших объемах информации. В качестве запроса могут использоваться фразы на естественном языке [166];

• в Московском специализированном Центре новых информационных технологий на базе Московской медицинской академии им. И.М. Сеченова. Разработана система “КЛЮЧИ ОТ ТЕКСТА” – для смыслового поиска и индексирования текстовой информации в электронных библиотеках [78];

• в компании "Yandex". Предлагается набор средств полнотекстовой индексации и поиска в текстовых данных с учетом морфологии русского и английского языков. Средства предназначены для работы с большими объемами русских или английских текстов всех типов в виде файлов различных форматов, полей баз данных и страничек Интернета. Подробные программных С.В. Логичевым включает описание вычислительной сведения об этих и в других распространяемых составленном Каталог текстов и ресурсов, продуктах содержатся каталоге, с анализом [http://davidsonyuliya.boom.ru/catalog.htm]. программ, а связанных также лингвистикой, соответствующих доступных в Интернете. В настоящее время в стране сложилась ситуация, когда системы автоматизации библиотек, как правило, не поддерживают технологии автоматизированного смыслового анализа текстов, а современные системы анализа текстов не адаптированы к работе с системами автоматизации библиотек, при этом стоимости тех и других как коммерческих продуктов сопоставимы. Это делает целесообразным расширение возможностей систем автоматизации библиотек за счет включения в них средств смыслового анализа текстов. Исходя из этого, в данном диссертационном исследовании была сформулирована цель работы: исследование, разработка и научнопрактическое обоснование алгоритмов и методики автоматизированной смысловой обработки текстов и внедрение их в технологию обработки электронных фондов библиотек. В соответствии с этой целью решались следующие задачи: • разработка и обоснование методики создания полнотекстовых баз данных;

• разработка и обоснование общей методики смыслового анализа текстов;

• разработка и программная реализация автоматизированной системы эвристического анализа числовых данных;

• разработка и программная реализация алгоритмов классификации текстов;

• адаптация автоматизированной системы смыслового анализа текстов для работы с электронными фондами библиотеки в среде системы автоматизации библиотек ИРБИС. Данная работа является синтезом нескольких независимых исследований, которые проводились автором. Прежде всего автором, совместно с П.П. Макагоновым, была разработана система визуального эвристического анализа числовых данных, названная Visual HCA [114]. Данная система адресована эксперту, которому необходимо решить слабоформализованную задачу классификации на основе создания и структуризации числовой модели. Автором были исследованы потребности библиотек, и как разработчик систем автоматизации автор поставил цель прикладного применения Visual HCA для создания системы полнотекстового анализа электронных фондов библиотек. Совместно с П.П. Макагоновым были развиты алгоритмы смыслового анализа текстов на основе идеи естественно-тематической текстов [115,117,121]. классификации Автор является под хранения проблемноодним из ориентированных ГПНТБ России разработчиков системы автоматизации библиотек ИРБИС, которая создана в коллективом были специалистов формат руководством данных и Я.Л. Шрайберга. В соавторстве с A.И. Бродовским, H.А. Мазовым и O.Л. Жижимовым разработаны полнофункциональная библиотека доступа к базам данных ИРБИС64, позволяющие создавать базы данных большого объема [125]. Завершающим этапом работы явилось создание системы смыслового анализа текстов и интеграция ее в систему автоматизации библиотек ИРБИС [126]. Научная новизна данной диссертационной работы состоит в том, что исследована проблема и разработан алгоритм классификации текстов и соответствующая методика смыслового анализа текстов. Впервые в качестве метода составления поискового образа текста был определен отбор слов на основе частотного словаря общеупотребительной лексики. Задача автоматического определения тематической принадлежности текстов решена на основе расчета и эвристического анализа меры близости текстов к словарю предметной области. Предложена концепция применения ряда независимых эвристических алгоритмов для структуризации числовых данных, что увеличивает достоверность результатов работы системы смыслового анализа. На защиту выносятся следующие основные положения: 1. Задачи смыслового анализа и тематической классификация текстов относятся к слабоформализованным и должны решаться с помощью эвристических (с участием эксперта) алгоритмов. 2. Смысловой полнотекстовый анализ является необходимой частью современной системы автоматизации библиотек.

3. Разработанные алгоритмы создание позволяют в условиях баз библиотеки данных (без автоматизировать полнотекстовых привлечения сторонних специалистов) и предоставить читателям библиотеки сервис в виде полнотекстового поиска и смыслового поиска текстов, близких к заданному тексту-образцу. Теоретическая значимость исследования состоит в обобщении имеющегося опыта применения математической статистики для смысловой обработки текстов;

в развитии и обогащении научного представления о значимости анализа текстов для информационно-поисковых состоит в том что, систем, и применяемых в библиотеках. Практическая значимость созданы опубликованы в Интернете на сайте ГПНТБ России полнотекстовые базы данных докладов конференции “Крым 2002-2003” и статей сборника НТБ ГПНТБ России. Общее число текстов в базах 1300. Время, затраченное на создание баз данных и тематическую классификацию текстов по методике, разработанной в диссертационном исследовании, составило один рабочий день, тогда как на создание библиографических описаний этого же объема документов пришлось бы потратить не менее 60 дней. В результате диссертационного исследования разработана полнофункциональная библиотека доступа к базам данных, которая используется в клиент-серверной версии системы автоматизации библиотек ИРБИС - ИРБИС64. Разработана система визуального эвристического анализа числовых данных, которая неоднократно применялась на практике при решении экспертных задач в различных областях знаний. При этом на каждую из задач тратилось от 2 часов до 2 дней. Решение тех же задач традиционными методами требовал нескольких месяцев работы и не всегда позволял выявить те же закономерности в предметной области. В рамках расширения возможностей системы визуального эвристического анализа разработана программа “Визуальный трехмерный анализ временных измерений на плоскости (Visual HCA 3D)”, которая используется в учебном процессе Российской академии государственной службы при Президенте Российской Федерации (акт о внедрении прилагается). Апробация результатов исследований состояла в публикации материалов исследований в отечественных и зарубежных периодических изданиях, в выступлениях с докладами на отечественных и зарубежных конференциях и опубликовании текстов этих докладов. Основные результаты диссертационной работы были представлены на следующих международных конференциях: • “Крым 2000”, “Крым 2001”, “Крым 20002”, “Крым 2003” “Библиотеки и ассоциации в меняющемся мире: новые технологии и новые формы сотрудничества” (г.Судак, Украина, Автономная республика Крым). • “ЛИБКОМ издательская область). • “Иссык-Куль 2003” “Библиотеки и демократизация общества: библиотечно-информационное обслуживание в век информатизации” (г.Чолпан-Ата, Кыргызстан). 2001”, “ЛИБКОМ технологии, для 2002”, “ЛИБКОМ 2003” и "Информационные компьютерные системы продукция библиотек" (Ершово, Московская 14 Глава 1. Автоматизированная система смысловой обработки текстов 1.1. Обзор существующих программных продуктов анализа текстов В настоящее время на коммерческом рынке разработка отдельных продуктов для полнотекстового анализа признана невыгодным шагом. Поэтому фирмы стараются развивать алгоритмы текстового анализа как расширения для серверов баз данных. В России существует ряд систем текстового анализа для поддержки работы специалистов с большими объемами текстовой информации. Принципы работы этих систем в основном статистические с дополнительной лингвистической поддержкой. Кроме известных поисковых серверов можно назвать системы “ТекстАналист” [170] и “Следопыт “(Media Lingva) [166]. В данном обзоре приводятся описания наиболее продвинутых систем, представленных сегодня на IT рынке России. Существует большое количество систем, разработанных в основном специалистами университетских центров и используемых для своих нужд. В данном обзоре они не описываются, так как принципы работы системы смыслового анализа текстов сходны и опираются на научный потенциал разработчиков, накопленный ранее. В список не включены системы анализа текстов, разработанные для больших поисковых серверов, таких как Яндекс, OZON, Rambler и т.д. В основном это комплексы, настроенные на работу в Интернете. Исключение в списке программных продуктов представляет система “Ключи от текста”[78], не являющаяся в строгом смысле слова конкурентно способным IT товаром, но по принципу работы наиболее близко подходящей к системе смыслового анализа.

• Адаптацией технологий Oracle к русскоязычным полнотекстовым базам данных занимаются специалисты компании «Гарант-ПаркИнтернет». Продукт этой компании под названием Russian Context Optimizer (RCO) предназначен для совместного использования с картриджем interMedia Text [72]. Лидер мирового рынка СУБД Oracle уже снабдил разработчиков информационных систем рядом передовых технологий. Речь идет о картридже interMedia Text, входящем в состав СУБД ORACLE8i, при использовании которого обработка текста сочетается со всеми возможностями, предоставленными пользователю Oracle для работы с реляционными базами данных. В частности, при написании приложений стало возможно использовать SQL с развитым языком запросов к полнотекстовой информации. Продукт позволяет расширить возможности Microsoft BackOffice (MS SharePoint Portal, MS Indexing Service, MS Exchange Server и MS SQL Server) при работе с текстами на русском языке, обеспечивая поиск с учетом всех грамматических форм слов на основе морфологического анализа. Серия продуктов, выпускаемых под маркой RCOТМ, предназначена для поддержки широкого класса систем, использующих средства поиска и анализа текстовой информации, таких, как информационнопоисковые и аналитические системы, электронные архивы и системы управления документооборотом. Продукты серии RCO задействуют передовые технологии обработки текста, лингвистические и математические алгоритмы, которые могут быть использованы для решения широкого класса задач: от контекстного поиска текстов с учетом всех словоформ, синонимов и опечаток до создания систем поддержки принятия экспертных решений на основе анализа информационных массивов. • Персональная система автоматического анализа текста TextAnalyst [170] разработана в качестве инструмента для анализа содержания текстов, смыслового поиска информации, формирования электронных архивов, и предоставляет пользователю следующие основные возможности: анализа содержания текста с автоматическим формированием семантической сети с гиперссылками - получения смыслового портрета текста в терминах основных понятий и их смысловых связей;

анализа содержания текста с автоматическим формированием тематического древа с гиперссылками выявления семантической структуры текста в виде иерархии тем и подтем;

смыслового поиска с учетом скрытых смысловых связей слов запроса со словами текста;

автоматического реферирования текста - формирования его смыслового портрета в терминах наиболее информативных фраз;

кластеризации информации - анализа распределения материала текстов по тематическим классам;

автоматической гипертекст;

индексации текста с преобразованием в ранжирования всех видов информации о семантике текста по «степени значимости» с возможностью варьирования детальности ее исследования;

• Система “Ключи от Текста” [78] - смысловой поиск и индексирование текстовой информации в электронных библиотеках. Московский специализированный (по медицинским специальностям) Центр новых информационных технологий на базе Московской медицинской академии им. И.М. Сеченова. Предлагаемые алгоритмы в ходе формальной процедуры выделяют своеобразное "семиотико--семантическое поле" - множество слов, наиболее сильно связанных по смыслу в конкретном анализируемом тексте, на основании сопоставления анализируемого текста с представительной для предметной области совокупностью текстов. В результате внедрения созданных нами методов в работу электронных библиотек и телекоммуникационных сетей реализуется информационная технология интеллектуального смыслового поиска в информационных ресурсах на естественных языках без обязательного предварительного индексирования, а также, автоматическая смысловая индексация, классификация и аннотирование текстовой информации, как средства анализа и создания информационных ресурсов для глобальных телекоммуникационных сетей. • Система ВААЛ [132] автор В.А. Шалак, работа над которой ведется с 1992 года, позволяет прогнозировать эффект неосознаваемого воздействия текстов на массовую аудиторию, анализировать тексты с точки зрения такого воздействия, составлять тексты с заданным вектором воздействия, выявлять личностно-психологические качества авторов текста и делать многое другое.

Области возможного применения Составление текстов выступлений с заранее заданными характеристиками воздействия на потенциальную аудиторию. Активное формирование эмоционального отношения к политическому деятелю со стороны различных социальных групп. Составление эмоционально окрашенных рекламных статей. Поиск наиболее удачных названий и торговых марок. Психо- и гипнотерапия. Неявное психологическое тестирование и экспресс-диагностика. Создание легких в усвоении учебных материалов. Научные исследования в области психолингвистики и смежных с нею дисциплинах. Журналистика и другие сферы деятельности, использующие в качестве инструмента СЛОВО. Социологические и социолингвистические исследования. Информационные войны. Контент-анализ текстов. Мониторинг СМИ.

Система позволяет: Оценивать неосознаваемое эмоциональное воздействие фонетической структуры текстов и отдельных слов на подсознание человека.

Генерировать слова с заданными фоносемантическими характеристиками. Задавать характеристики желаемого воздействия и целенаправленно редактировать тексты для достижения указанных характеристик. Корректировать текст по выбранным параметрам с использованием словаря синонимов на 5 тыс. синонимических рядов из 25 тыс. слов. Настраиваться на различные социальные и профессиональные группы людей, которые могут быть выделены по используемой ими лексике. Оценивать звуко-цветовые характеристики текстов. Самому пользователю задавать дополнительные фоносемантические шкалы, расширяя систему в нужном для него направлении. Производить факторный анализ данных с последующей визуализацией результатов. Осуществлять полноценный анализ текста по большому числу специально составленных встроенных категорий и категорий, задаваемых самим пользователем. Производить эмоционально-лексический анализ текстов. Осуществлять контекстный анализ текстов. Производить автоматическую категоризацию текстов. • Интеллектуальная система “СЛЕДОПЫТ” [166] помогает быстро находить текстовые фрагменты документов, и предназначена для тех, кто в результате своей деятельности имеет дело с большим объемом информации. ”СЛЕДОПЫТ” позволяет оперативно находить необходимые документы, и представляет полученную информацию в удобном для пользователя виде. Следопыт ищет информацию на русском и английском языках. “СЛЕДОПЫТ” позволяет в качестве запроса использовать фразы на естественном языке. Допускаются комбинированные запросы на смешанном русско-английском языке. •В корпорации “Галактика” [74] создан новый продукт автоматизированная система поиска и аналитической обработки информации. Обеспечение руководителей высшего звена важной и актуальной для принятия решения аналитической информацией, выделенной из массива текстовых данных. Поиск и формирование информационных массивов по конкретным аспектам исследуемой проблематики. Поиск информации осуществляется по ключевым словам с учетом их морфологии. Объемы исходных массивов данных до сотен гигабайт. Доступные массивы данных: сообщения и статьи СМИ, отраслевая печать, нормативная документация, деловая переписка и материалы внутреннего документооборота предприятия, информация сети Интернет и т.д. Анализ объективных смысловых связей Получение "образа" отобранных проблемы моментальной данных многомерной фотографии в информационном потоке в форме ранжированного списка значимых слов, употребляемых совместно с темой проблемы. Вскрытие и анализ закономерностей повторений словосочетаний в текстовых массивах данных и последующее их ранжирование. Сравнение динамики нескольких развития состояний проблемы, выявление проблемы закономерностей и тенденций (или частностей и случайностей) изучаемой Отслеживание "образа" проблемы с определенной периодичностью и анализ причин его изменения, включая выявление фактов и событий, которые обусловили эти изменения.

Сферы применения:

• развитие предвыборных технологий и социологических исследований в целях позиционирования и продвижения интересов политических партий и движений;

• поддержка информационных подразделений, службы маркетинга и службы безопасности крупных предприятий и банков;

• поддержка средств массовой информации. Тенденцией развития как рынка на является данные разработка программные модулей продукты лингвистического прикладного обеспечения для разработчиков систем автоматизации. Так цены сопоставимы с ценами на отечественные системы автоматизации библиотек, необходимо расширять возможности существующих систем. В настоящее время в нашей стране сложилась ситуация, что системы автоматизации библиотек [26,28] не поддерживают технологии автоматизированного смыслового анализа текстов, а современные системы анализа текстов не адаптированы к работе с электронными фондами библиотеки. Необходима разработка алгоритмов и методики автоматизированной смысловой обработки текстов и реализация программно-технического комплекса для внедрения смыслового полнотекстового анализа в технологию обработки электронных фондов библиотеки.

1.2. Смысловая обработка текстов в полнотекстовых базах данных Данная работа ориентирована на развитие системы автоматизации библиотек ИРБИС [19] (подробнее об ИРБИС в главе 4) с целью поддержки новых технологий при создании полнотекстовых баз данных на основе массива текстов электронных фондов библиотеки и, соответственно, развития методик извлечения знаний на основе смыслового анализа текстов. Основное применение интеллектуальных технологий сегодня – это обработка знаний. Системы, ядром которых является база данных или модель предметной области, описанная на языке сверхвысокого уровня, называют интеллектуальными. Чаще всего интеллектуальные системы применяются для решения сложных задач, где основная сложность решения связана с использованием слабоформализованных знаний. Наиболее распространенным видом интеллектуальных систем являются экспертные системы [55,153]. Экспертные системы ориентированы на применение обобщенного опыта высококвалифицированных специалистов в областях, где качество принятия решений традиционно зависит от уровня экспертизы, например, медицина, юриспруденция, геология, экономика и т.д. Принято считать, что экспертные системы эффективны лишь в специфических областях знаний, где важен эмпирический опыт специалистов. В настоящее время на Западе и в России все большее применение находят экспертные системы широкого профиля, в которых находят применение различные алгоритмы обработки информации [4,21,33,154-172]. Эксперт привлекается только для формализации типовой задачи до уровня прикладного представления. После становится возможным скрытого применения опыта эксперта пользователями системы. Самостоятельным разделом настоящей работы является разработка системы для структуризации числовой информации, которая рассчитывается при подготовке полнотекстовой базы данных к применению алгоритмов смыслового анализа текстов. Данная система является независимым программно-техническим продуктом и может использоваться в различных областях знаний, в частности развитые технологии структуризации позволяют применять ее библиотечным специалистам при создании естественно-тематического библиотеки. Мы будем рассматривать ту часть электронных фондов библиотеки, под которой будем понимать все текстовые информационные ресурсы. Это могут быть, например, электронные тексты, накапливаемые в библиотеке как результат технологических процессов, например, сканирования текстов или создания электронного проблемно-ориентированного фонда ретроспективных и текстовых документов. В целом, предлагаемая система работает с набором текстовых файлов и позволяет в оперативном режиме установить среди этого набора группы тяготеющих друг к другу файлов. Причем, критерий, по которому определяется величина “притяжения “, выбирается в диалоговом режиме на основании личного опыта и предпочтений. Предлагаемая автоматизированная система смыслового анализа текстов имеет дело в общем случае с потоком текстовой информации. Для работы системы необходимо и достаточно иметь базу данных типа “мешок текстов”. Результатом работы системы является структуризация (классификация) текстов. Как следствие могут быть получены следующие результаты – словари, которые характеризуют данную группу, тексты-образцы для группы как смысловые ядра, числовые характеристики и диаграммы, описывающие взаиморасположение выбранных текстов в некотором тематическом пространстве, которое определяется пользователем системы, фрагменты текстов (автореферат) и наборы фрагментов текстов выбранные по заданным критериям. При создании больших баз данных естественным образом поднимается вопрос не только о быстром информационном поиске, но также об интеллектуальном смысловом поиске – извлечении знаний и найденной анализе информации с целью накопления опыта. Здесь необходимо еще раз классификатора электронных фондов подчеркнуть разницу между информационным поиском и смысловым анализом найденных текстов. Информационный поиск – это поиск источника для дальнейшего использования, смысловой поиск, в рассматриваемом далее смысле – это часть задачи экспертного анализа для выработки или подтверждения некоторой гипотезы. Для информационного поиска вполне достаточно иметь электронный каталог с его подробными вторичными описаниями документов. Для смыслового анализа применяются алгоритмы извлечения из массива информации скрытого знания [12,67,113]. Что такое “скрытое знание”, какие задачи могут решаться с помощью предлагаемой системы? Основными применяемыми алгоритмами служат классификация, типизация, фрагментация и реферирование текстов. Смысловой анализ текстов может быть сведен в рамках статистической теории вероятностей к задаче выдвижения некоторой гипотезы и оценки значимости этой гипотезы в рамках существующего материала. Иначе говоря, данная работа претендует на обоснование того факта, что какая бы задача по извлечению знаний не ставилась, разработанный метод анализа текстов позволит найти некие формы, модели представления данных, которые удовлетворяют заранее заданному критерию правдоподобия. Одновременно система нуждается в опыте и знаниях самого пользователя, то есть результат, строго уровня говоря, подготовки неоднозначен пользователя. и зависит Почему от так профессионального получается, будет ясно из дальнейшего изложения, здесь достаточно сказать что в таком виде проявляется факт не формальности задачи. С одной стороны есть мнение конкретного человека, а с другой накопленный опыт в виде различных текстов. И на то, каким образом соотносятся между собой эти тексты и фрагменты текстов, влияет личность того, кто эти тексты читает. Поэтому основой работы системы является человеко-машинный диалог, в котором предлагаются различные математические методы обработки данных и результаты либо принимаются, либо отвергаются самим пользователем на основании собственного опыта. Так как в библиотеке представителем основного информационного ресурса является электронный каталог [147], внедрение новых технологий должно происходить в рамках существующей системы обслуживания. Это значит, что новая услуга - такая как предлагаемый смысловой поиск и анализ найденных текстов должна стать частью системы информационного обслуживания читателей библиотеки. Задача системы автоматизированного смыслового анализа текстов разбивается на две части – подготовка базы данных к использованию алгоритмов смыслового анализа и разработка интерфейса для использования этих алгоритмов читателем библиотеки. Вторая часть задачи может быть решена в виде дополнительного поискового сервиса, но лучше всего эта задача решается как специальный Интернет-сервис. Об этом будет рассказано в последней главе диссертации. Подготовка базы данных к применению алгоритмов смыслового анализа заключается, прежде всего, в индексации всех слов из внешних текстов. Технология извлечения слов из текстов может рассматриваться как стандартная процедура подготовки словаря базы данных. Так как при корректуре записей ссылка на внешний текст может считаться неизменной, при актуализации записи процедура извлечения слов из текста может быть опущена. Далее происходит формализация задачи смыслового анализа текстов. То есть задача сводится к математическому оперированию над числовыми матрицами вида объект-атрибут. Для получения таких числовых матриц используется статистический анализ частоты словоупотреблений в текстах. При этом программа опирается на заранее созданный частотный ряд абсолютных частот для слов естественного языка. Методика создания этого ряда и оценка достоверности описываются ниже в отдельном разделе.





После формализации задачи, перехода от набора слов к цифровым матрицам, применяются специально разработанные алгоритмы решения неформальных эвристических (с участием человека) проблем. Результатом этой работы является набор словарей (списки слов), которые рассматриваются как естественный классификатор накопленной текстовой информации. Смысловой анализ текстов опирается на эти словари, их принято называть предметно-ориентированные словари. Таким образом, подготовка базы данных разбивается на три этапа: индексация, формализация и классификация. Далее будет подробно описан каждый этап. Индексация слов включает в себя процедуру выделения слов, отсечения окончаний и создание ссылки словаря. При этом слово проходит проверку по стоп словарю. Будем считать, что все тексты написаны на естественном языке, принятом в научном сообществе, в данной предметной области. Так как для смыслового анализа используются среднестатистические методы выделения слов, неординарное применение слова не позволит его использовать, так как на общем фоне такие события будут редки. Однако, в научных статьях принято все же использовать формальный технический язык, легко подвергающийся синхронному переводу и понятный специалистам данной области. Этот факт следствие межнациональных связей в науке сегодняшнего дня. Язык всех текстов считается либо русский, либо английский. Для того, чтобы использовать систему с другими языками (есть опыт применения с испанским языком) необходимо иметь частотный ряд для данного языка. Методика подготовки такого ряда для русского языка описана ниже. Понятия структуризации информации, как о методе извлечения знаний Ядром системы автоматизированного смыслового анализа текстов служат алгоритмы структуризации числовой информации вида объект атрибут. В математике такая структуризация носит название кластеризации [34], кластер это группа объектов, которая может быть выделена из общей массы на основании каких-либо критериев. В нашем случае объектами служат тексты базы данных или слова из текстов. Группы текстов в кластере дают информацию о том, какие и сколько тем, пока еще не сформулированных на естественном языке, представлены в полнотекстовой базе данных. Группы слов в кластере составляют понятийные словари для описания этих тем. В данной работе рассматривается классификация массив текстов, написанных на естественном языке (иностранные слова отбрасываются) и неограниченной длины отобранных не случайным образом из потока информации, например, по ключевому слову или выражению. Примем за временные ограничения отсутствие синтаксического анализа, так что тексты, написанные на заданную тему разными словами, строго говоря, будут существенно отличаться друг от друга (в случае малой статистической выборки). В силу неоднозначности и контекстной зависимости естественного языка можем считать тексты слабоструктурированными объектами, в этом случае задача классификации будет считаться слабоформализованной в ряду: неформализованная ряд – слабоформализованная решения: и интуитивные – хорошо – для формализованная – полностью формализованная проблема. Этому ряду соответствует – методы алгоритмов методы эвристические и, до некоторой степени, спектрально статистические методы исследования операций методы регуляризации некорректных, условно корректных задач – шаблонные правила и алгоритмы принятия решений. Считается, что при решении задач 1-3 необходимо участие человека (экспертная оценка) [53]. С математической точки зрения задача смысловой обработки текстов относится к разряду слабоформализованных задач. Такие задачи отличаются неопределенностью постановок и/или отсутствием процедур обработки данных, связаны с нечеткой формализованных и неоднозначной математических (аналитических) или технологических (алгоритмических) формулировкой цели, с применением эвристик, не допускающих полной формализации, с отсутствием устойчивой системы понятий и моделей [114]. Формализация представления данных до вида пригодного для численных и графических методов анализа Для проведения кластеризации исходные данные должны быть обработаны и подготовлены каким-либо математическим методом. Иначе говоря, надо подготовить пространство или систему координат, в которой будет проводиться кластеризация. Этот процесс и носит название формализации задачи. Здесь важно отметить, что основные следствия, которые могут быть получены далее математическим путем, уже содержаться в результате формализации, поэтому принципы, на которые опирается система смыслового анализа, отрабатывают именно здесь. Базовой числовой информацией для нашей системы является матрица вида объект-атрибут, где объектами изучения являются тексты базы данных, а их атрибутами относительные частоты слов, которые система считает значимыми и выделяет из всей совокупности слов, встречающихся во всех текстах. Относительной частотой алгоритмы слова будем называть число словоупотреблений данного слова во всех текстах базы данных. Разрабатываемые автоматической классификации базируются на числовом анализе частотного распределения ключевых слов, выбранных из заданного массива текстов. Известно, что это распределение описывается эмпирическим законом Ципфа [173]. Например, для выборки общеупотребительной лексики, использованной в работе абсолютная частота слов F как функция номера слова N, в упорядоченном ряде по убыванию частоты имеет вид: Для выборки в 1000000 русских слов общеупотребительной лексики F= 2263000* N-0.866 В моно тематической выборке по превышению частоты встречаемости слова над общеупотребительной частотой, можно сформировать выборку слов для подъязыка данной тематики (проблемно-ориентированный заключается в построении словарь). Формализация представления данных матрицы объект-атрибут, где объектами будут исходные тексты, атрибутами – слова. Элементом матрицы является число словоупотреблений (или его логарифм, причем, при отсутствии слова логарифм считается равным –1). Словосочетания не анализируются, хотя система сохраняет номер слова в тексте как рабочий параметр базы данных для каждого слова. Надежность относительной частоты слова как оценки резко падает с уменьшением абсолютной частоты встречаемости слова. Опыт показывает, что абсолютная частота слова может считаться значимой, начиная с достаточно малых величин (2,3). Чтобы уменьшить статистическую ошибку абсолютной частоты до приемлемых с точки зрения теории вероятности значений, необходимо иметь дело с большими выборками моно тематических текстов, абсолютный объем которых трудно прогнозировать. Очевидно, значение должно превышать статистические соображениями, оценки должны быть которые позволят 10 Mb. Таким образом, дополнены считать дополнительными ненулевую значимой абсолютную частоту слова, то есть сам факт употребления слова должен имеет вес, компенсирующий низкую величину абсолютной частоты.

Естественно-тематическая классификация текстов Организовать смысловой поиск и анализ текстов можно опираясь на идею естественной-тематической классификации, которая основана на тенденции любой информации объединятся в группы «по интересам» [115,117,121]. Это явление просто отражает тот факт, что различные отрасли знаний имеют свой подъязык. Для того, чтобы быть понятым другими специалистами, автор текста вынужден в какой-то степени использовать формальный язык данной предметной области. Статистически частоты словоупотреблений слов данной предметной области, следовательно, будут существенно выше, чем их же частоты в общеупотребительной лексике. Ошибка в оценке частоты словоупотребления при низких частотах велика, что приведет к расширению списка значимых слов, так как объем выборки базы данных меньше, чем объем выборки использованной для расчета естественной частоты. Идея естественно-тематической классификации носит более общий характер, чем идея анализа частотных словоупотреблений. Эта идея связана с проблемами коммуникативных отношений и общими законами построения знаков и символов [133]. Так как данная работа лежит в технической области, в сфере практического, инженерного применения данного принципа, приводимое ниже ее обоснование должно рассматриваться как опыт экспериментального наблюдения, полученный на практике в процессе отработки алгоритмов числовой автоматизированной классификации в сфере смыслового анализа текстов. При формальном построении текста специалист естественным образом следует принципу повторения и принципу развития темы. Притом, что сложность теста и другие особенности выражения остаются в творческой воле автора, использование терминов подъязыка некой предметной области приводит к тому, что в среднем частоты их словоупотреблений неизбежно повышаются. Число слов из данной предметной области, задействованных в тексте имеет нижнюю и верхнюю границы. Причем, верхняя граница чрезвычайно размыта, так как повторятся можно многократно и, обычно, так и происходит, а нижняя граница связана с тем фактом, что употребление одного специального термина неизбежно влечет за собой пояснения и как следствие употребление терминов окружения. Набор слов, которые употребляет специалист, естественным образом, ограничен, и легче использовать слова из существующего набора, чем выдумывать каждый раз новые термины. Для частотного выделения не важно, какие собственно слова были употреблены - специальные термины или обычные. Важен сам факт их употребления. Статистический анализ не отражает тонкостей выражения мысли автором. Наоборот, он использует факт шаблонности выражений, позволяя построить базовую основу для дальнейшего анализа. Далее перейдем к описанию практической методики подготовки базы данных и описанию программных продуктов, используемых при этом. 1.3. Описание работы системы автоматизированного смыслового анализа текстов Автоматизированная система состоит из двух программных модулей: 1. Программы "Администратор" для создания, полнотекстовых БД, и подготовки численных 2-мерных таблиц для графических методов анализа с целью классификации текстов. 2. Программы Visual HCA для визуального эвристического анализа 2мерных числовых таблиц. Полнотекстовая БД создается в программе "Администратор" на основе массива текстов в WIN кодировке. В данной главе приводится краткое в общих чертах описание работы системы. Математические алгоритмы, применяющиеся в системе, требуют отдельного подробного обсуждения – 3 глава, без этого невозможно описать методику работы системы с текстами полностью. Методика создания естественно-тематического классификатора базируется на использовании алгоритмов визуального эвристического анализа, на основе которых создана система Visual HCA. Подробное изложение алгоритмов смыслового анализа текстов сделано в главе 3. Создание базового словаря. Принципы статистического анализа на основе словаря общеупотребительной лексики Необходимо отметить, что процедура создания инструментария для смыслового анализа текстов должна быть доверена эксперту в области лингвистического обеспечения, ориентирующемуся в тематике созданной базы данных. Кроме того, этот эксперт должен быть специалистом по математическим числовым методам классификации, так как предлагаемая методика основывается на эвристическом кластерном анализе числовых матриц, использующем человеко-машинные диалоговые технологии. Базовый словарь (БС) - это набор слов из исходного массива текстов, относительная частота встречаемости которых превышает частоту в общеупотребительной лексике. Общеупотребительная частота данного слова берется из заранее заготовленного словаря общеупотребительной лексики (СОЛ), созданного на основе большого массива газетных текстов (около миллиарда слов). Базовый словарь будет включать слова из всех тематических подъязыков, использованных авторами текстов. Рекомендуется ограничить создаваемую базу данных по тематике, иначе естественно-тематические группы не удастся выделить статистически значимо (необходимо иметь очень большое количество текстов). Создание словаря общеупотребительной лексики проведено по методике создания репрезентативной выборки на базе отбора входящих в генеральную совокупность общеупотребительного языка различных тематических выборок ограниченного объема. Для успешной работы системы достаточно грубо определить абсолютные частоты, потому что при отборе слов в базовый словарь превышение частоты можно регулировать. При создании баз данных размером до 100 тысяч статей объем выборки будет существенно ниже, чем объем выборки, используемый при создании СОЛ. То есть величина частоты словоупотребления будет занижена. При таких условиях в базовый словарь попадет множество слов не точно характеризующих тексты, случайных слов или мало информативных слов, таких как глаголы, прилагательные. Эксперт, проводящий отбор, должен вручную откорректировать окончательный список слов. Аббревиатуры и другие слова, не содержащиеся в словаре общеупотребительной лексики, сохраняются в дополнительном списке. Частота слов в списке принимается равной наблюдаемой частоте с поправкой на коэффициент отношения объема выборки к объему выборки СОЛ (миллиард слов). Использование тезаурусов, синонимов, антонимов и устойчивых словосочетаний на этапе создания базового словаря не даст ощутимых результатов. Основной целью при создании базового словаря является выборка всех слов, которые каким-либо образом выделяются на фоне общеупотребительной лексики. Если термин из подъязыка статистически выделяется при этом, то неизбежно будут выделены и слова из его окружения. Синонимы для этого термина будут важны только тогда, когда частота их применения сравнима с частотой применения данного термина. В этом случае синонимы будут выделены статистически независимо. Так же и устойчивые словосочетания будут выделены независимо, так как частоты входящих в них терминов будут равны. Возможно, использование дополнительной информации, предоставляемой лингвистическим анализом, позволит точнее проводить смысловой анализ текстов. На данном этапе в руках эксперта есть готовые списки слов, которые система считает значимыми, и можно вручную внести необходимые изменения. Создание естественно-тематических предметно-ориентированных словарей На основе базового словаря словари - ПОС. Предметно-ориентированные словари служат основным инструментом классификации текстов [120,121]. Прежде всего, определяется общий ПОС. Все слова из базового словаря проходят через ряд критериев отбора. Изменяя параметры отбора слов, эксперт имеет возможность следить за устойчивостью выбранной модели классификации. Таким образом, общий ПОС - это часть слов из БС, которые прошли через заданные экспертом критерии отбора. По порядку применения критерии отбора слов располагаются в следующей последовательности: • максимальное число значимых текстов - максимально допустимое число текстов, в которых встретилось слово. Этот критерий позволяет выделить слова, специфичные только для части текстов;

• минимальное число значимых текстов - минимальное число текстов, в которых встретилось испытуемое слово из кандидатов в ПОС. Этот критерий совпадает с нижней статистической границей встречаемости слова, позволяя отбрасывать слова, специфичные для малого, по сравнению с исходным, количества текстов. Этот критерий определяется представлениями эксперта о минимально значимом числе текстов в одном кластере;

• превышение заданной относительной частоты словоупотребления. Ниже приведена иллюстрация работы программного модуля “Администратор”. Пользователь имеет возможность, изменяя параметры, создаются предметно-ориентированные оценивать объем получаемых матриц. Для моно тематических словарей эвристически определенное значение объема словаря составляет 50-300 слов. Если слов меньше, часть текстов выпадает из анализа и составляет белое пятно, которое необходимо анализировать отдельно. Если объем больше определенность тематики падает, размывается и появляется тяготение к подразделению на под темы. Предлагаются различные виды нормализации матриц, хотя наилучшим - из опыта - является логарифм основанию 2. Далее рассчитывается числовая матрица текст/слово - TW, элементами которой являются число встречаемости данного слова из общего ПОС в данном тексте. На основе TW рассчитываются симметричные квадратные матрицы слово/слово - WW и текст/текст - TT. Элементом TT является число употреблений слов из общего ПОС в паре данных текстов. Элементом WW является число текстов, в которых встретилась данная пара слов из общего ПОС. На основе WW определяются частные ПОС, на основе TT определяются тематические группы текстов и текстыпредставители(тематические ядра) для данной группы. Далее пользователь использует программу эвристического кластерного анализа числовых матриц - Visual HCA (Visual Heuristic Cluster Analysis) для определения естественно-тематических групп. Программный продукт Visual HCA дает возможности эксперту выдвинуть некоторую гипотезу о составе и структуре кластеров и в зависимости от проверки этой гипотезы методами, которые не использовались при формировании модели, увеличить степень своей уверенности в правдоподобии принятой гипотезы или получить результат, заставляющий отвергнуть эту гипотезу. Итак, в итоге, каждому тексту соответствует один сохраняется в базе данных в виде некоторого числового кода. ПОС, что Рис. 1. Критерии отбора слов в ПОС. Предметно-ориентированный словарь (ПОС) служит основным инструментом классификации текстов. Изменяя параметры отбора слов в ПОС, эксперт имеет возможность следить за устойчивостью выбранной модели классификации. Одновременно с созданием ПОС программа "Администратор" процедура рассчитывает темы в 2-мерные виде ПОС числовые повторяется которой таблицы для это для визуального эвристического анализа в программе Visual HCA. Здесь описания каждой число предварительно определенной темы. Рассчитываются: • Матрица текст/слово, элементы словоупотреблений для слов из ПОС в каждом тексте БД. • Матрица текст/текст, элементы которой это число слов из ПОС, встречающихся в данной паре текстов, нормированное на Матрица слово/слово, элементы которой это число текстов, содержащих данную пару слов, нормированное на 1 • Далее эти матрицы анализируются в программе Visual HCA с целью разбиения текстов БД на естественно-тематические группы. В зависимости от размеров БД стратегия классификации может быть разной. Если количество текстов сравнительно невелико (меньше чем количество слов в ПОС) следует анализировать матрицу текст\текст. В противном случае следует анализировать матрицу слово/слово. Устойчивые группы, найденные в результате работы программы Visual HCA и будут естественно-тематическими группами, к разбиению на которые тяготеет данная БД. Если число текстов существенно превышает число слов ПОС (объем ПОС 100-200 слов), то следует анализировать матрицу слово\слово с тем, чтобы организовать под словари тем (физически это списки слов из ПОС) и использовать эти под словари для разбиения текстов на рубрики в программе "Администратор" (в режиме Рис. 2.

Режимы в программе “Администратор” "Распределение текстов по рубрикам"). В данном режиме программа "Администратор" создает матрицу текст\словарь, используя либо рубрики БД (тематические индексы из текстов БД), либо набор словарей, созданных программой Visual HCA или заданных экспертом по своему выбору. После разбиения текстов БД на группы в программе "Администратор" необходимо назначить каждой группе текстов поименованную тему, индекс которой записывается в БД. После этого для каждой рубрики определяется ПОС по описанной выше методике. Процедура разбиения на подгруппы может продолжаться, таким образом, далее. В результате тексты разбиваются по естественно-тематической иерархии. Конечно, исходная выборка для создания много тематического классификатора должна быть достаточно велика, чтобы быть статистически значимой. Для исследования же структуры моно тематического плана (например, описание характера недавно возникшей отрасли знаний, определения групп докладов конференций) достаточно иметь несколько сотен текстов среднего размера (~32Kb).

Рис. 3.

Матрицы текст/текст в программе Visual HCA Так выглядит в программе Visual HCA файл текст/текст до и после структуризации для БД созданной на основе массива текстов социологической и экологической тематики, хотя возможны варианты принадлежности отдельных текстов к обеим рубрикам. После создания естественно-тематических групп и ПОС для каждой группы в системе ИРБИС АРМ “Каталогизатор” можно искать в базе Рис. 4.

Результат поиска текстов по образцу данных тексты, сходные данному, таким образом, сразу определяя, к какой теме следует причислить текст из потока новых поступлений. Величина сходства (релевантность) одного текста другому рассчитывается в контексте выбранного ПОС (или нескольких ПОС). Слова из данного ПОС ищутся в тексте-образце. Найденные слова образуют пространство, в котором тексты из БД могут сравниваться с заданным. Релевантность одного текста другому, таким образом, есть корреляция строк в матрице текст/слово. Доля слов в предметной области запроса - это процент слов из выбранного ПОС, найденных в тексте-образце. Если эта величина мала (<10%) можно считать, что данный текст принадлежит другой тематической группе. Определить к какой тематической группе принадлежит текст-образец можно по списку релевантных ему текстов для основного ПОС. Распределение текстов по рубрикам (ПОС) можно получить по списку релевантных текстов, не задавая текст-образец. Разумеется, после добавления в БД значительного количества текстов, тематика которых не отражена в классификаторе, следует провести повторную реструктуризацию БД. Для этого все вышеописанные шаги повторяются заново. Для нахождения ядра группы текстов используется матрица текст/текст, которая рассчитывается при определении релевантности текстов. Эксперт, анализируя эту матрицу в программе Visual HCA, имеет возможность построить структуру типа дендрит или, рассчитав факторы изучить взаиморасположение текстов в факторном пространстве. Технология применения Visual HCA описывается в следующей главе. Фрагментация текстов В программе “Администратор” можно выделить фрагменты текстов, в которых встречаются слова ПОС. Критерии выделения фрагментов заранее могут быть заданы как: • Максимальное расстояние между словами во фрагменте. • Минимальное число разных слов во фрагменте. • Расстояние между фрагментами, выраженное в словах. Фрагменты характеризуются, в основном, числом слов из ПОС. Регулируя эту величину, эксперт добивается извлечения из текста именно тех отрывков, где автор рассуждает на интересующую его тему. Расстояние между словами во фрагменте влияет на размер фрагмента, так как если это значение велико, слова из ПОС из разных участков текста заставят их слиться в один фрагмент. Таким образом, расстояние между словами во фрагменте определяет размер скользящего по тексту окна, внутри которого Рис. 5.

Выбор параметров для выделения фрагментов программа ищет слова из ПОС. После того, как фрагменты выделены, все они записываются в отдельный файл с именем frag.rtf и создается числовая матрица фрагмент/фрагмент для выявления групп в массиве различных фрагментов с помощью программы Visual HCA. После выделения этих групп цветом эксперт имеет возможность сохранить каждую группу фрагментов в файл формата RTF. Технология накопления информации Практика показывает, что минимальное количество текстов для организации базы данных составляет 10 Мб и размер самого текста должен быть более 1 Kb (автореферат) и менее 100 Kb (начинаются повторения и расширение тематики – текст становится слишком общим). В процессе накопления информации без существенного изменения тематики система естественным образом стремится к устойчивому набору ПОС, которые в свою очередь начинают далее дробится по тематической иерархии. Практика применения разработанной технологии показывает, что на одну страницу нового текста (2 Кб) ПОС добавляется от 2 до 4 слов. Количество слов в ПОС определяется в какой-то степени стремлением использовать эвристические свойства визуализации. Это означает, что объемы информации неявно ограничены тем, что полезное для визуального анализа число элементов ограничено величиной порядка 200 – 500. Необходимый минимальный объем выборки для формирования ПОС составляет 4 Mb. Эта величина оценивалась по тенденции ПОС к увеличению с ростом объема выборки. Для моно тематической выборки (искусственно) график Объем(ПОС)/Объем выборки(размер текста – от 1 до 20 Kb) имеет вид:

Рис. 6. График зависимости объема ПОС от объема выборки Таким образом, при увеличении моно тематической выборки самообучение системы носит конечный характер и заключается в формировании набора ПОС.

Выводы по 1-й главе В данной главе проведен анализ существующих программных продуктов анализа текстов. Тенденцией развития рынка является разработка модулей лингвистического прикладного обеспечения для разработчиков систем автоматизации. Так как цены на данные программные продукты сопоставимы с ценами на отечественные системы автоматизации библиотек, необходимо расширять возможности существующих систем. В данной главе приводится краткое описание разработанных подходов к решению задачи смысловой обработки текстов: • Создание полнотекстовой базы данных. • Естественно-тематическая классификация текстов, для чего необходимо выделение значимых терминов предметной области по признаку превышения общеупотребительной частоты [115,117]. • Для смыслового анализа текстов необходимо представление информации о распределении слов в текстах в числовом виде и структуризация этой информации с помощью алгоритмов решения слабоформализованных задач [114]. В данной главе приводится подробная методика работы автоматизированной системы по созданию полнотекстовой базы данных из массива текстов. Выделены следующие этапы: • Создание из массива текстов полнотекстовой базы данных и индексация слов из текстов. • Выделение • Создание словарей. значимых терминов по критерию превышения общеупотребительной частоты. естественно-тематических предметно-ориентированных Предметно-ориентированные словари со словами с повышенной частотой встречаемости по сравнению с общеупотребительной лексикой являются новым поисковым инструментом работы с текстами электронного фонда библиотеки. Распределение терминов предметно-ориентированного словаря по тексту является поисковым образом, который автоматизированная система представляет в числовом виде. Данное представление является начальной точкой работы алгоритмов сравнения и классификации текстов системой визуального эвристического анализа (см. Главу 2.). С ростом объема информации однородной тематики автоматизированная система позволяет сравнивать тексты, не изменяя предметно-ориентированных словарей.

Работа автоматизированной системы иллюстрируется на примере набора статей социологической и экологической тематики.

45 Глава 2. Система визуального эвристического кластерного анализа В данной главе будет рассмотрена система структуризации числовых матриц вида объект/атрибут, представляющая собой отдельный программный продукт[114]. При достаточной сложности в использовании система обладает внутренне присущей логикой, которая легко усваивается специалистами в различных областях знаний благодаря тому, что система базируется на общенаучных понятиях и представлениях об анализе информации. Далее в этой главе пользователь системы будет называться эксперт. В приложении 1 описаны в общих чертах и в доступной принципы, заложенные в систему. Специалисты, не форме со знакомые специальными разделами математической статистики, могут ознакомиться с работой программы, не вникая в частные детали. 2.1. Экспертные системы и система визуального эвристического анализа – сходства и отличия Современные комплексы, экспертные системы знания это сложные в программные конкретных аккумулирующие специалистов предметных областях и распространяющие этот эмпирический опыт для консультирования менее квалифицированных пользователей [153]. Главное отличие экспертной системы от других программных средств это наличие базы данных, в которой знания хранятся в форме понятной специалистам предметной области и могут быть изменены и дополнены. С этой точки зрения система визуального эвристического анализа является основой для построения экспертной системы в некой предметной области, причем предметная область может быть любой. Система визуального эвристического анализа предоставляет математический инструментарий для решения формализованных задач. Процесс отражения проблемы в форму числовой матрицы и процесс обработки полученных результатов структуризации лежит за рамками системы. Если тематический набор текстов рассматривать как выборку из совокупного знания, то задача извлечения скрытого знания и накопления опыта по его применению близка к задачам, которые ставятся перед экспертными системами. Главное отличие заключается в том, что при построении экспертной системы опыт эксперта используется прямо, в системе смыслового анализа текстов опыт эксперта используется скрыто, являясь основой для выделения значимых слов и построения тематических словарей. Непосредственное знание и опыт эксперта необходимы только на этапе построения естественно-тематического классификатора. Также как и статистическая теория вероятности, система не делает никаких предположений о природе полученных данных, об их взаимосвязи или неточности при измерении. Более того, система может работать с абстрактными данными, которые получены в результате численной формализации качественных данных. Применение системы в области смыслового анализа текстов стало возможным благодаря построению модели естественно-тематических словарей для сравнения текстов. Слабоформализованные задачи - это задачи формирования понятий и концепций, связанных с изучением новых объектов [114]. Рассматривается граница между формализованными и неформализованными задачами. Исходные данные это многомерные матрицы объекты-атрибуты. Подход к решению - структуризация данных. Действительно, после выделения структур объектов эксперт может выдвигать гипотезы о концепции, формировать которая объединила объекты в структуры, понятия для описания этих концепций. а также Это дает аксиоматический базис для будущих выводов. Методология решения:

применение точность. 2.2. Возможности системы Visual HCA (Visual Heuristic Cluster Analysis) Visual HCA - это система, которая специально ориентирована на помощь эксперту в выработке понятий и концепций. Система позволяет обрабатывать матрицы, содержащие сотни объектов и атрибутов. Последние могут быть количественными и качественными. Ключевое место это графический диалог с экспертом. Он позволяет:

- искать и выделять кластеры в подпространствах факторного пространства;

- управлять выделением кластеров на дендрите;

- проверять устойчивость кластеров. Кластеры могут быть одномерными, формы. многомерными, сложной На дендрите кластеры могут размещаться на фрагментах, неформальных процедур классификации и формальных алгоритмов, ориентированных данные, на их специфику, полноту и образующих отдельные деревья. Искусство эксперта - обнаружить их. При кластеризации можно привлекать данные по географической привязке объектов на картах. Ниже рассмотрен пример генетического анализа. Все примеры использовали реальный экспериментальный материал. В заключении приведено краткое описание программной реализации. Слабоформализованные задачи. Предмет рассмотрения и концепция решения Термин задачами, слабоформализованные задачи обычно связывается с которые отличаются неопределенностью постановок и/или отсутствием формализованных математических (аналитических) или технологических (алгоритмических) процедур обработки данных. Под слабоформализованными задачами принято понимать задачи, связанные: с нечеткой и неоднозначной формулировкой цели, с с применением эвристик, не допускающих полной формализации, отсутствием устойчивой системы понятий и моделей [114]. Такие задачи возникают, когда исследователь начинает изучать новый тип объектов или процессов, относительно которых имеется количество данных, но нет моделей и аксиоматики, характеризующих эти объекты или процессы. На этом материале исследователю надо сформировать понятия и концепции о модели объекта. Ситуация осложняется тем, что в наиболее интересных случаях, а эти случаи обычно связаны с междисциплинарными исследованиями, данные представляют смесь количественных и качественных характеристик. В этих условиях исследователь должен найти способ формализовать информацию, выявить структуру данных, найти взаимосвязи между объектами и их свойствами, а затем найти подходящий математический аппарат для описания моделей объектов и процессов, порождающих данные, аналогичные собранным. Результатом решения слабо-формализованной задачи является перевод этой задачи в разряд хорошо формализованных задач. Подход к решению Основной путь решения этих задач - это обнаружение отношений между объектами, между их атрибутами. На основе этих отношений выдвигаются и проверяются гипотезы о модели объектов. Эти гипотезы, принятые еще на ранних стадиях исследований, создают аксиоматический базис будущих выводов исследователя. Они создают основу для более планомерного и направленного поиска формализованных математических моделей объектов и взаимосвязей между ними. Исходные данные представляют собой матрицы. Почти всегда это матрицы типа объекты-атрибуты. Поэтому, используемый математический аппарат должен быть настроен на работу именно с этим типом исходных данных. Получить представление о том, что представляет собой исследуемый материал можно после проведения структуризации данных. Действительно, когда эксперт выделил какие-либо структуры объектов, он уже может выдвигать гипотезы о концепции, которая объединила объекты в эти структуры, и формировать понятия для описания этих концепций [34]. В качестве кластер-анализ. метода структуризации принимается классификация Поскольку представление о том, каким должен быть объектов на заранее неопределенное число классов, т.е. неформальный кластер, заранее неизвестно, то выделение кластеров естественно поручить эксперту. Он будет проводить кластеризацию в режиме графического диалога с системой. Эту работу нельзя поручать машине, хотя уже имеется достаточно много автоматических классификаторов. Среди них есть и те, которые проводят классификацию на не заданное заранее число классов. Во всех этих системах классификация проводится по всему набору атрибутов. А на начальных стадиях исследований информативность атрибутов может оказаться резко различной и затрудняющей исследования. Кроме того для автоматической классификации должны быть заданы внешние критерии, определяющие предельные отношения близости объектов к точкам своего и других кластеров. В общем случае на начальной стадии исследований неизвестно, как задавать эти критерии. Далее. Для проведения кластеризации исходные данные должны быть обработаны и подготовлены каким-либо математическим методом. Иначе говоря, надо подготовить пространство или систему координат, в которой будет проводиться кластеризация. При решении слабоформализованных задач нельзя проводить кластеризацию в пространстве атрибутов, по крайней мере, формально. Действительно, выбрав в качестве координат набор атрибутов, мы тем самым опираемся на уже сформированную систему понятий, определяемую этими атрибутами! Именно поэтому, методы подготовки данных должны быть ориентированы на данные, на их специфику, полноту и точность. И это второе требование к системе, которая претендует на то, чтобы решать слабоформализованные задачи [114]. 2.3. Методы, ориентированные на данные В системе используются два математических метода, ориентированных на данные: Метод естественных ортогональных составляющих Этот метод известен давно. Библиографию можно найти, например, в [160]. Основа метода - это решение проблемы собственных значений и собственных векторов матрицы данных. Метод позволяет перейти от пространства атрибутов (A1,A2,....An), в пространство факторов (F1,F2,...Fl) которые и являются этими ортогональными составляющими. Очевидно, новые атрибуты в факторы, заранее неизвестны. (F1,F2,...) Они полностью проводить определяются набором исходных данных. Именно этом пространстве следует кластеризацию. Кластерами здесь будут группы объектов, локализованные вручную экспертом в одном или нескольких подпространствах. Эти подпространства строятся на парах векторов (Fi,Fj).

Метод построения дендрита Дендритом здесь называется граф типа дерева. являются объекты, Вершинами графа соединенные дугами по принципу ближайшего соседства. При этом расстояние определяется в пространстве атрибутов как в каком-либо метрическом пространстве [102]. Поскольку при построении дендрита отсутствуют внешние критерии группировки, то процедура построения дендрита тоже ориентирована на данные. Здесь эксперт также может вручную локализовать кластеры, выделяя более тесно сближенные между собой фрагменты дерева или разбивая исходный граф на лес и изолированные узлы. Этот метод и метод кластеризации в факторных подпространствах взаимно дополняют друг друга. связи, В частности, причинно-следственные факторах. Если обнаруженные на дендрите, проверяются на кластеры, выделенные разными методами, в основном совпадают, то это свидетельствует об объективности их существования и устойчивости результата кластеризации. Назначение Система Visual HCA предназначена для решения слабоформализованных задач на основе человеко-машинных процедур классификации. Исходная информация - матрица объекты-атрибуты. Visual HCA предоставляет эксперту аппарат, который не требует априорной информации о структурных особенностях проблемы. Этот аппарат помогает эксперту в структуризацию представлений о системе, к которой относятся данные. Он не заменяет человека-эксперта, а лишь усиливает его интеллектуальные возможности в его творчестве.

Подготовка данных Исходные данные представляют собой матрицу. матрица типа объекты-атрибуты. атрибуты Атрибуты могут Почти всегда это представлять и количественные и качественные характеристики объекта. Заметим, что количественные могут представлять пространственновременные характеристики объекта, а качественные атрибуты могут быть как бинарными, так и многозначными. Матрица может относиться к типу объекты-объекты и содержать, например, числа, отражающие отношения между объектами. Матрица может быть подготовлена как в обычной текстовой форме, так и в стандартном формате баз данных, работающих с Excel. Учет качественных данных Рассмотренные выше процедуры математической обработки используют количественное представление атрибутов. Действительно, в этих процедурах существенную роль играет понятие 'расстояние', понятие 'больше-меньше'. количественных. Если качественный атрибут имеет только два значения, представление его нулем и единицей является оправданным. то В данном Чтобы проводить такую обработку, качественные атрибуты заменяются их порядковыми номерами, т.е. переводятся в разряд случае эти значения играют роль индикаторов 'отличие' или 'равенство', а не значений расстояния. Если качественный атрибут имеет значения в порядковой шкале, например, 'очень мало', 'мало', 'много', 'очень много', то представление атрибута соответствующими порядковыми номерами оправдано и дает хорошие результаты. Но если качественный атрибут имеет несколько значений и эти значения не удовлетворяют отношению порядка, то его разбивают на несколько бинарных атрибутов и представляют в номинальных шкалах.

Описание опций программы На рисунке показан набор опций задаваемых в программе:

Рис. 7. Выбор опций в программе Visual HCA • Автосохранение векторов – сохранять вектора при расчете в файле. • Автосохранение форм – сохранять формы объектов при сохранении файла, при чтении файла формы объектов будут прочитаны. • Автосохранение цветов - сохранять цвета объектов при сохранении файла, при чтении файла цвета объектов будут прочитаны. • Файл векторов – использовать существующий файл векторов при расчетах факторов. • Файл для карты – указать файл для показа объектов в топо-окне.

• Показать минимальное расстояние – рисовать на графе линии, отвечающие минимальному расстоянию между объектами при любом положении ползунка, показывающего границу видимого расстояния. • Симметричная матрица – установить эту опцию, если матрица симметричная, все процедуры сортировки и удаления строк будут прилагаться к симметричным столбцам автоматически. • Экспоненциальная шкала – установить экспоненциальную шкалу показа минимальных расстояний на графе. • Точность расчета – при расчете факторов. • Шкала для эллипсов – размер эллипсов %. Поиск кластеров в факторном пространстве Предполагается, что в каком-либо подпространстве (Fi x Fj) удастся локализовать группы объектов, т.е. выделить кластер. Однако, заранее неизвестно, в какой паре (Fi x Fj) это разделение будет наиболее четким. Кроме того, заранее неизвестен также характер группировки: это могут быть линейные кластеры, кластеры с явно выраженным центром и т.п. Поэтому эксперт просматривает различные подпространства, натянутые на вектора (Fi,Fj), и отыскивает те подпространства, где это разделение будет наиболее четким. В обнаруженном подпространстве В где представляются эксперт отмечает точки выбранных кластеров различными цветами. Visual HCA имеется окно “Факторный анализ”, кластеры в факторных пространствах. Название окна подчеркивает, что по осям откладываются координаты, имеющие смысл весов соответствующего фактора. На рис.8 показано окно “Факторный анализ” для факторов (F2,F4). Эти факторы играют роль ортов, по осям которых отложены весовые коэффициенты. Поэтому оси отмечены здесь как 2 и 4. На этом же рисунке показаны объекты в факторном пространстве. Объекты, принадлежащие различным группам, окрашены в различные цвета. На рисунке 8 видно, что выделяются 4 различные группы объектов. Естественно, количество атрибутов для объекта и фактора совпадают. Использование эллипсов рассеяния возможно для решения задачи опознавания класса объекта на обучающей выборке. На рисунке 8 показаны эллипсы рассеяния, рассчитанные на примере генетического анализа. Теперь если есть результаты новые измерений можно быстро распознать их принадлежность к одному из 4 классов (в данном примере рас народов мира).

Рис. 8.

Эллипсы рассеяния в факторном пространстве Для более достоверной классификации возможен просмотр объектов в трехмерном факторном пространстве, вращающемся вокруг начала координат с помощью мыши. Такой динамический показ позволяет в режиме анимации убедится в правильности выбранной классификации, так как факторы на плоскости не всегда разносят различные классы объектов на максимально возможные видимые расстояния. На нижнем рисунке 9 хорошо видны 4 класса объектов, причем становится явной глубина картинки. При этом размещение объектов внутри группы более точно идентифицируется.

Рис. 9.

Объекты в 3D факторном пространстве На следующем рисунке 10 иллюстрируется корреляция и антикорреляция факторов и объектов. Видно, что серый объект (Греция) коррелирует со 2 фактором, желтый объект антикорелирует с ним же. Такое поведение объектов и приводит к большому видимому разбросу на плоскости факторного пространства для факторов 2 и 4.

На рисунке 10 можно видеть величину значимости фактора (главное значение для данного фактора относительно максимального) – магнитуду. Если магнитуда фактора мала, влияние его незначительно и им можно пренебречь. После расчета факторов они сортируются по значению диагонального элемента, таким образом, наиболее значимые факторы ближе Рис. 10. к началу нумерации.

Графики факторов и объектов Точность расчета факторов до определенной степени влияет на взаимное расположение объектов в факторном пространстве. При достижении значений меньших процента это влияние резко ослабевает и становится незначительным. Величина точности расчета определяет время расчета факторов, пользовать сам может его отрегулировать. Поиск кластеров на дендрите и графе В окне на рисунке 11 показан дендрит, построенный по всему множеству объектов. Расстояние между объектами здесь определяется в Рис. 11. пространстве атрибутов в Граф-дендрит одной из метрик Евклидовой или Манхеттенской, или корреляцией между объектами. Если кластеры уже были выделены в факторном пространстве, то Visual HCA сразу же покажет их цветом. Но эксперт может вручную выделять кластеры и отмечать их цветом, как он делал это в факторном пространстве. Эксперт может управлять построением дендрита двумя путями: вопервых, он может указать предельное значение расстояния между объектами и тем самым управлять разбиением дерева на лес. С другой стороны эксперт может выполнять позиционирование дендрита, выбирая ту или иную вершину в качестве корневой. При построении дендрита используется метод ближайшего соседа, при котором первичное объединение объектов в группу - кластер происходит по минимальному расстоянию между ними. Количество групп объектов (кластеров далее), получаемое при этом зависит от тесноты связей между ними. Дальнейшее объединение объектов в дендрит происходит по минимальному расстоянию между кластерами. При этом фиксируется каждый шаг этого объединения, что позволяет управлять процессом объединения, пользуясь движком для изменения граничного учитываемого расстояния. В целом процедура построения дендрита полностью совпадает с процедурой построения графа, за исключением того, что при выделении минимального из всех остальных расстояний между объектами в кластере, другие отбрасываются, что позволяет рисовать всегда только одну линию, соединяющую соседние объекты. Связи между объектами рисуются линиями различного цвета, который соответствует цветовой шкале расстояния. При этом минимальные расстояния изображаются в любом случае, давая возможность понять, почему данные объекты автоматически сразу после расчета расстояний объединяются в один кластер. Объекты, соединенные хоть одной линией на графе, могут быть нарисованы вместе в виде розетки, тем самым, давая возможность при изменении расстояния при помощи движка цветовой шкалы, быстро оценить количество образованных кластеров. Цветовую шкалу расстояний можно сделать экспоненциальной, тем самым, регулируя скорость образования кластеров при изменении граничного расстояния движком. При построении дендрита или графа автоматически параллельно объекты выстраиваются в дерево кластеров, которое показывается в другом окне. Дерево кластеров На нижнем рисунке 12 показаны способы объединения объектов в кластеры, предлагаемые в режиме ‘Дерево кластеров’. Дерево кластеров и граф (или дендрит) взаимно отражаются друг в друга. При объединении объектов в кластер на графе можно перестроить дерево, чтобы получить соответствие, тем самым, получая возможность быстро окрасить в любой цвет выбранный кластер объектов или конкретный Рис. 12. объект из кластера.

Объединение объектов в группы Цвет является основным инструментом пользователя системы для выделения объектов в группы. При сортировке числовой матрицы объектов по цвету происходит структуризация, которая в виде блочной структуры наблюдается в цветовом режиме показа матрицы в редакторе. Уровень кластеризации показывает число шагов по объединению Рис. 13.

Дерево кластеров кластеров по методу ближайшего соседа, которые были сделаны при расчете матрицы расстояний. Связными объектами в данном случае являются объекты, соединенные в группу на графе. Число шагов, необходимое чтобы объединить все объекты в один кластер, что возможно при наличии ненулевых расстояний между любыми двумя объектами, различается в зависимости от разницы между объектами. Если объекты незначительно отличаются друг от друга, объединение их в различные кластеры нелегкая задача, которая не решается в рамках модели ближайшего соседа, так как дискретность шага при объединении объектом конечна и может превышать среднюю разницу между расстояниями. Забегая вперед - при анализе текстов для построения тематических словарей рассчитываются матрицы, объектами и атрибутами которых являются характеристики распределения слов по текстам базы данных. При этом расстояния между объектами в этих матрицах, близки друг другу и теснота связей между объектами велика, так что все объекты имеют тенденцию сливаться воедино, не разделяясь на отдельные кластеры. Для структуризации матриц данного вида разработана более чувствительная к изменениям расстояния методика кластеризации, при которой оценивается величина “устойчивости” группы объектов. Методика выделения устойчивых кластеров Данная методика специально разработана для работы с матрицами с большим числом объектов и атрибутов, такие матрицы возникают при смысловом анализе текстов. В этих матрицах различие между объектами, обычно, не значительно и метод ближайшего соседа не позволяет определить устойчивые группы объектов, а расчет факторов затруднителен из-за большого числа атрибутов. Первый шаг - это определение первичных кластеров с помощью метода ближайшего соседа по минимальному расстоянию между объектами. При движении ползунка вверх граница максимального расстояния, учитываемого при объединении первичных кластеров, увеличивается (проявляются внутренний все более тонкие связи). В режиме 'УЧИТЫВАТЬ потенциала УСТОЙЧИВОСТЬ' объединение кластеров происходит только тогда, когда потенциал взаимосвязи меньше внешнего взаимосвязи ко всем другим кластерам. То есть решение об объединении принимается с учетом всех проявившихся (на данном уровне ползунка) связей. Кластеры объединяются по принципу максимального притяжения. После каждого акта объединения кластеров происходит полный перерасчет потенциалов взаимосвязи между всеми кластерами. Далее процедура повторяется, пока число устойчивых кластеров не станет постоянным. Sij = 1/(1+R(i,j)/maxmin) где Sij - ПОТЕНЦИАЛ ВЗАИМОСВЯЗИ, R(i,j) – расстояние между объектами i и j, Maxmin – граница максимального расстояния (положение ползунка). S = S_in/(Sin+Sout) где S - УСТОЙЧИВОСТЬ, S_In - ПОТЕНЦИАЛ ВЗАИМОСВЯЗИ объектов кластера между собой, S_out - ПОТЕНЦИАЛ ВЗАИМОСВЯЗИ объектов кластера и остальных объектов. Регулируя параметр 'МИНИМАЛЬНАЯ УСТОЙЧИВОСТЬ', мы изменяем схемы объединения кластеров. Параметр 'МИНИМАЛЬНОЕ ЧИСЛО КЛАСТЕРОВ' служит для определения границы, после достижения которой, движение назад (разъединение кластеров при движении ползунка вниз) происходить не будет. Например, если число первичных кластеров = 100, а 'МИНИМАЛЬНОЕ ЧИСЛО КЛАСТЕРОВ' = 40, то при движении ползунка вверх будет происходить объединение кластеров, но если их число все еще больше 40, то при движении ползунка вниз разъединения кластеров происходить не будет. Проверка устойчивости модели кластеризации Программа Visual HCA выполняет одновременный выбор объектов в кластерном пространстве, на дендрите и в топографическом окне. Таким образом, выделив объект или группу объектов в одном окне, эксперт немедленно может увидеть расположение этого объекта в других окнах. По существу, здесь реализуется "метод меченого атома", когда проверяется принадлежность отмеченного объекта одному и тому же кластеру. Устойчивость результатов кластеризации здесь понимается в двух аспектах. Первый аспект состоит в отсутствии изменений в разделении объектов на кластеры после удаления малоинформативных атрибутов. Если этот эффект наблюдается, то удаленные атрибуты действительно мало информативны. Второй аспект связан с идентичным разбиением объектов на кластеры при одновременном наблюдении их и в факторных пространствах и на дереве дендрита. Здесь, при манипуляции с кластерами и отдельными объектами очень важную роль играет цвет. Понятно, что окрашивание каждого кластера своим цветом резко ускоряет анализ ситуации экспертом! При анализе матриц в системе смыслового анализа для построения словарей естественно-тематического классификатора проблема устойчивости особенно остро ощущается, так как при большом числе близких между собой объектов невозможно строго отдать приоритет при их объединении из-за дискретности самого процесса объединения. В результате при работе алгоритмов по выделению устойчивых кластеров наблюдается слабая несогласованность для случая смешения объектов с различными амплитудами. Так как в текстах одновременно присутствуют редко и часто употребляемые термины, система стремится к их автоматическому разделению на внутренне присущие этим объектам классы – редкие и частые. Как следствие этот факт накладывается на факторы, разделяющие объекты (термины) в смысловом аспекте и смещают оценки близости при их сравнении. Поэтому рекомендуется выделить первоначальные группы и провести отдельный анализ для каждой из них. Затем возможно объединить результаты. Методика классификации и кластеризации Мы специально используем термин кластеризация объектов, а не классификация объектов, чтобы подчеркнуть специфику субъективной процедуры группировки, связанной с участием эксперта. Дело состоит в следующем. При классификации мы можем формально разделить объекты на классы, принудительно задавая границы между классами. При этом расстояние между двумя объектами соседних классов может быть близко к нулевому расстоянию. При кластеризации необходимо разделить объекты на несколько групп с учетом тонкой специфики их взаиморасположения. Но такое деление мы можем осуществить при условии, что нам удастся найти такой способ измерения расстояния между группами и внутри групп, что расстояние между группами будет превышать расстояние между элементами в одной группе. Роль эксперта состоит в искусстве ввести такое расстояние, при котором эти кластеры можно было бы выделить. Например, пусть мы выбрали 2 линейных кластера, расположенных на параллельных наклонных прямых. В этом случае расстояние внутри кластера будет иметь единицу масштаба, отличную от расстояния в гиперплоскости, ортогональной этим прямым. Рассматривая оба кластера в проекции на эту гиперплоскость, мы получим образ каждого из кластеров в виде точки. Если бы расстояния внутри кластеров и между кластерами измерялись без масштабирования, то в этом примере кластеры оказались бы неразделимыми. Эксперту доступно разделение кластеров и в более сложных случаях, например, когда кластеры представляют собой две одномерные расходящиеся группы объектов и т.п. Методика работы состоит в организации последовательной процедуры с целью наилучшей структуризации исходных данных. Процедура носит эвристический характер экспертной оценки визуально представленной информации - оценки, уточняемой в интерактивном режиме, на основании очевидных предпочтений выпадающим из общего ряда группам объектов или признаков. В качестве метода структуризации принимается классификация объектов/атрибутов на заранее неопределенное число классов. Технология решения состоит в поиске устойчивых кластеров в факторном пространстве и/или на графе. В общем случае все атрибуты могут быть разделены на 3 группы. К первой группе относятся атрибуты, сопоставимые по величине для всех объектов. Ко второй группе - атрибуты, существенные только для значительной части (не менее 10-30%) объектов. К третьей группе относятся редкие атрибуты(менее 1-5% объектов).Первая группа атрибутов появляется в связи с переходом от изучения системы в подсистему. Эти атрибуты полезно выделить в отдельную совокупность, поскольку по ним все объекты выглядят почти одинаково. Решение проблем, связанных с этими атрибутами лежит либо на верхнем уровне подсистемы, либо в системе более высокого уровня. Без выделения этих атрибутов они будут маскировать специфику каждого из объектов, затруднять разбиение на кластеры. В этом плане должны быть удалены и редкие атрибуты. В кластерах они проявляются своим расположением в окрестности нуля почти во всех факторных пространствах. Нулевые и малые значения редких атрибутов делают большинство объектов неразличимыми между собой в подпространстве этих атрибутов. Поэтому при решении задачи классификации и типизации, при выделении массовых свойств по которым различаются объекты, эти атрибуты могут быть удалены. Однако, при рассмотрении ряда задач выявления редких и новых явлений эти атрибуты требуется сохранять. Рекомендуется вначале проанализировать исходные атрибуты с целью выявления редких, постоянных и независимых атрибутов для возможного удаления неинформативных представителей (одинаковые значения практически для всех объектов), что позволит снизить размерность матрицы объекты/атрибуты с целью минимизировать фоновые и сглаживающие эффекты. Кластеризация атрибутов упорядочивает их расположение в матрице объектов/атрибутов. Затем аналогичным образом проводится кластеризация объектов, после чего упорядочивается расположения строк матрицы. Как правило, после этого в режиме цветового представления становится заметной ее блочная структура. То есть можно связать характерные значения групп атрибутов с группами объектов. Усилить это визуальное представление взаимосвязей можно, снимая сглаживающие и маскирующие влияния слабо информативных атрибутов и отдельно стоящих объектов. Для этого полезно провести ручное упорядочивание в режиме цветового представления: • Исключая атрибуты, имеющие одинаковое значение в подавляющем числе объектов для всех кластеров. При этом усиливается роль атрибутов имеющих близкие значения в пределах одного кластера и значительные вариации при переходе к другим кластерам. • Атрибуты наиболее однородные в пределах наиболее многочисленных Аналогичные действия кластеров провести объектов для строк. предпочтительно Далее возможно перенести в первые столбцы своего кластера атрибутов. проанализировать граф для объектов при различных модах расчета матрицы расстояний, определить цвет/форму объектов, формируя по результатам анализа кластеры по цвету. Пользователь отмечает при этом одним цветом близкие между собой объекты, образующие плотную группу относительно расположения в окне других объектов, результаты окрашивания объектов передаются в другие окна. Затем проводится факторный анализ и анализ самих факторов на предмет выбора представительных объектов/атрибутов с целью смысловой идентификации факторов. Анализ дендрита и дерева кластеров полезен в плане представления исходного материала целом, в виде иерархии объектов/атрибутов, построенной по методу ближайшего соседа. В для проверки устойчивости сложившихся предпочтений вся • различных метрик;

• с удалением малоинформативной части атрибутов;

• с удалением отдельно стоящих объектов (в основном, за счет отсутствия у них признаков, представленных в доминирующих факторах). Анализ результатов генетических измерений разных народов мира процедура может быть повторена несколько раз с применением:

Рис. 14. Матрица генетических измерений народов мира На рисунке 14 показан цветовой портрет матрицы после проведения структуризации. Хорошо видна блочная структура матрицы. Объекты в факторном пространстве и дендрит были приведены выше при описании программы. На следующем рисунке показаны все поименованные объекты в факторном пространстве 2-4. Видно, что объекты распались на 4 устойчивые группы, соответствующие расам народов мира. Анализ этих групп показал, что они очень близки к схемам, которые демонстрирует история происхождения языков народов мира.

Рис. 15.

Объекты в топо-окне и в факторном пространстве Наблюдение кластеров в топо-окне Объекты, имеющие топографическую привязку, т.е. координаты на плоскости, могут быть представлены в окне 'Map'. И здесь эксперт также имеет возможность В случае вручную выделить кластеры, опираясь на географическую близость объектов друг к другу. примера с генетическим анализом крови народов мира особенно ясно видно преимущество использования картографической привязки. В данном случае географическая близость народов обязательно должна коррелировать с их родственной близостью по крови. Таким образом, в данном случае географическое представление объектов является действенным проверочным фактором при отработке гипотезы по окончательному выделению объектов в кластеры. Географическая привязка может использоваться как дополнительный информационный параметр при анализе, причем необязательно быть связанной с реальным расположением объектов в пространстве. Это может быть условное распределение в пространстве неких устойчивых факторов, которые действуют независимо на все исследуемые объекты. В некоторых из рассмотренных примеров Visual HCA продемонстрировал свои возможности в условиях, когда уже условия задач были сформулированы и когда имелись результаты их решения. Это дает возможность оценить точность и качество решения. Но при решении слабоформализованной задачи исследователь ничего этого не имеет. Что же получает пользователь, в результате применения Visual HCA? Пользователь системы получает свой исходный материал, сгруппированный таким образом, что становятся видимыми какие группы объектов и какие группы атрибутов соответствуют друг другу, и какая между ними связь. Это является материалом для выдвижения гипотез о модели исследуемого объекта.

Приведенные примеры продемонстрировали возможности Visual HCA, как средства решения слабо-формализованных задач. Следует подчеркнуть, еще раз, что получение и осмысливание результатов в этих примерах потребовало от нескольких часов до 2 дней работы эксперта. Здесь, конечно, не учитывается время на сбор и ввод данных. В указанных выше примерах использовался стандартный вариант Visual HCA. Мы полагаем, что в подавляющем большинстве случаев этот вариант будет пригоден и для других новых задач и других новых приложений. Однако, пользователю могут понадобиться Например, дополнительные необходимость необходимость возможности при обработке материалов.

доступа к графическим аналоговым изображениям, экран и т.п.

рассчитывать функциональные характеристики объектов и выводить их на Все эти модификации, конечно, требуют времени. Но, как уже упоминалось выше, в силу реализации Visual HCA в технологии объектноориентированного программирования, эти модификации можно сделать достаточно быстро. 2.4. Примеры применения Visual HCA продемонстрировал свои возможности в различных приложениях: естественно-научных, технических, гуманитарных. Результаты в этих приложениях были получены в приведенных примерах за период от 2 часов до 2 дней. Между тем анализ результатов традиционными методами потребовал нескольких месяцев работы и не всегда позволял выявить те же закономерности в предметной области. Применение разработанного программного продукта и его модификаций дало полезные, практически важные результаты в различных приложениях. В одних задачах использовался только программный продукт Visual HCA: анализ потока жалоб в приемной мэрии Москвы и писем анализ устойчивого развития городов по системе граждан в Мэрию;

качественных и количественных показателей [123];

анализ генетических связей между различными этносами по анализ поименных голосований депутатов Московской генетическим признакам;

городской думы. В других использовался весь комплекс: анализ и структурирование рефератов докладов на международных конференциях APORS’97 и IFORS’99 [118];

анализ экономической части предвыборных программ партий программа поиска текстов по образцам в базе данных по на выборах в государственную Думу 1996 и 1999 годов;

устойчивому развитию городов [116]. Выводы по 2-й главе Во второй главе приводится описание методики работы с системой визуального эвристического кластерного анализа (Visual Heuristic Cluster Analysis), разработанной автором совместно с П.П. Макагоновым [114]. Visual HCA применяется в системе смыслового анализа текстов для тематической классификации текстов. Используя программу эвристического кластерного анализа, эксперт определяет естественно-тематические группы путем структуризации числовых матриц, отражающих распределение слов по текстам. Такая структуризация носит название кластеризации;

кластер - это группа объектов, которая может быть выделена из общей массы на основании каких-либо критериев. В нашем случае объектами служат тексты базы данных или слова из текстов. Группы текстов в кластере дают информацию о том, какие темы, пока еще не сформулированные на естественном языке, представлены в полнотекстовой базе данных. Группы слов в кластере составляют предметно-ориентированные словари для описания этих тем. В главе показано, что в силу неоднозначности и контекстной зависимости естественного языка задача смысловой обработки текстов относится к разряду слабоформализованных. Такие задачи отличаются неопределенностью процедур обработки постановки данных;

и отсутствием с формализованных неоднозначной математических (аналитических) или технологических (алгоритмических) связаны нечеткой, формулировкой цели и отсутствием устойчивой системы понятий и моделей. Такие задачи, не допускающие полной формализации, решаются с применением эвристик. Иными словами, для решения задачи смысловой обработки текстов необходимо участие человека (экспертная оценка). Система Visual HCA представляет собой инструмент, который помогает эксперту в выработке понятий и концепций при решении таких слабоформализованных задач. Система позволяет обрабатывать матрицы, содержащие сотни объектов и атрибутов. Последние могут быть количественными и качественными. Особенностью системы является графический диалог с экспертом, обеспечивающий наглядность работы. Приведенные в главе примеры демонстрируют возможности Visual HCA как средства решения слабоформализованных задач. В Приложении в описаны основные принципы, заложенные в систему, что позволяет экспертам, не знакомым со специальными разделами математической статистики, ознакомиться с работой системы, не вникая в частные детали. В главе показано, что программа визуального эвристического анализа позволяет эксперту в визуальном диалоговом режиме определить группы слов, как ряд предметно-ориентированных словарей. В итоге каждому тексту соответствует один или более предметно-ориентированный словарь, что сохраняется в базе данных в виде числового кода – тематического индекса. Набор предметно-ориентированных словарей составляет естественно-тематический классификатор базы данных.

74 Глава 3. Описание работы алгоритмов смысловой обработки текстов 3.1. Алгоритм отбора слов в естественно тематический словарь В данной главе подробно описывается процедура создания полнотекстовой базы данных на основе набора текстов социологической и экологической тематики. Этот пример может эффективно использоваться для обучения библиотечных специалистов работе с данной системой. Разбирается методика создания естественно научного классификатора (набора словарей ПОС), методика кластеризации текстов, работа с программой Visual HCA. Количество текстов 85 в данном случае много меньше размера ПОС, поэтому методика работы с базой данных, содержащей более 1000 текстов будет несколько отличаться от приведенной, и эти особенности приводятся в окончании главы. ВЫБОРКА Общеупотребительная Тестовая Log F Log F Log I Превышение частоты F(I) Log I Рис. 16. Выбор слов из текстов в базовый словарь По эмпирическому закону Ципфа номер слова в частотном списке связан с частотой употребления Log F = A – K*Log I, где A,K- константы зависящие от языка [173]. Первым этапом на пути создания классификатора является выбор тех слов, частота употребления которых выше, чем в общеупотребительной лексике. Этот список будем называть базовым словарем – БС. Словарь общеупотребительной лексики создан на основе выборки, объем которой составляет около ста миллиона слов. Объем тестовой выборки составляет около 300000 слов (3 Mb информации). Слова из низкочастотной области списка с абсолютной частотой встречаемости меньше 1000 гарантировано войдут в БС. Кроме интересующих нас слов из низкочастотной области в БС попадут слова из окружения терминов, которые употребляются как шаблоны связи с контекстом и общеупотребительные слова, не несущие смысловой естественно-тематической нагрузки. Объем базового словаря в тестовой базе Рис. 17.

Рост объема базового словаря с ростом объема выборки данных составил около 5000 слов – это менее 2% от объема выборки.

Из графика видно, что насыщение естественно-тематического словаря при данном объеме тестовой выборки еще не наступило, но скорость роста объема ПОС уже замедлилась. Таким образом, при накоплении информации объем ПОС и вместе с ним, естественно, объем БС будет медленно расти, но в отношении к общему объему выборки объем БС будет падать. С ростом объема выборки в БС будут попадать слова окружения и общеупотребительные слова, с другой стороны, часть общеупотребительных слов с низкой частотой постепенно уйдут из БС. Следовательно, по структуре базовый словарь все больше будет приближаться к естественнотематическому словарю или, как будем его называть дальше, предметноориентированному словарю данной темы - ПОС. В современной научной терминологии принято такие словари называть DOD – Domain Oriented Dictionaries [120]. На рисунке 18 видно, что рост выборки существенно опережает рост объема базового словаря (здесь объем БС пропорционален корню квадратному из объема выборки). При дальнейшем увеличении объема выборки рост объема БС станет логарифмическим, это связано с накоплением информации по данной теме и тем, что при увеличении объема выборки будет происходить процесс уточнения информации, который задействует все более низкочастотные слои частотного списка. Вторым этапом на пути создания классификатора будем считать создание ПОС. Критерии отбора слов из базового словаря в ПОС были приведены выше в главе 1-й (рис. 1), здесь будет показано подробно как эти критерии работают на примере тестовой базы данных. На рисунке 18 показана зависимость объема ПОС от величины превышения абсолютной частоты слова. Хорошо видно, что кривая практически совпадает с гиперболой. Этот факт есть следствие из закона Ципфа распределения слов по частоте. Те слова, которые остаются в ПОС при сильном изменении граничной частоты являются специализированными терминами из низкочастотной области частотного списка. Поведение кривой сохраняется при изменении следующих критериев отбора, из которых основным является минимальное количество значимых текстов в % отношении к полному числу текстов, то есть текстов, в которых встретилось данной слово.

Рис.18. Зависимость объема ПОС от частоты Этот критерий позволяет выбрать в ПОС такие слова, которые рассеяны по различным текстам и не являются поэтому авторской терминологией или специализированными узко специфическими терминами. Увеличивая этот критерий мы резко сужаем возможности для слов попасть в ПОС, так как увеличивается требование к средней частоте употребления. Редко встречающиеся слова будут откидываться. Экспериментальный закон поведения кривой отражающей зависимость уменьшения объема ПОС от числа минимально значимых текстов показан на следующем рисунке. Log ПОС ~ MIN где ПОС – число слов в ПОС;

MIN- значение критерия.

Резкое падение объема ПОС в начале графика (Рис. 19) отражает то факт, что большинство слов в базовом словаре составляют редко Рис. 19. Объем ПОС при увеличении числа значимых текстов встречающиеся слова. Такие слова могут найтись в одном двух текстах и отражают либо частное мнение автора, либо являются узко научными терминами. Если есть некое эмпирическое знание о том, что в выборку входят N групп по M текстов с разной тематикой, то можно настроить критерии минимального и максимального количества значимых текстов так, чтобы ПОС состоял из суммы независимых тематических словарей для каждой группы и общей части, которая включает с общенаучные термины и слова окружения, смысл которых в естественном языке несколько другой, чем рядом с научными терминами. Из поведения графика видно, что в ПОС войдут слова существенно различным образом распределенные по выборке текстов. Часто потребляемые шаблонные термины и редкие слова, отражающие специфику текста. И те и другие существенно необходимы для выделения естественно-тематических групп текстов, но сравнение их между собой затруднительно.

Рекомендуется разделить эти слова на два списка и дальше анализировать отдельно. Об этом будет более подробно сказано ниже. Последним критерием для выбора слов из базового словаря в ПОС будет значение в % к общему числу текстов максимального количества значимых текстов. Этот критерий позволяет выбросить из ПОС общие слова, содержащиеся в большинстве текстов. Такие слова имеют, как правило, высокую употребительную частоту и если в выборке есть несколько тематических групп они составят значительную часть ПОС. Так как именно эти слова для нас важны, тем не менее на первом этапе структуризации часть из них должна быть отброшена для того, чтобы предварительно выделить число тем в выборке. При создании ПОС для каждой темы критерий максимального числа текстов будет 100%. График зависимости числа слов, удаленных из ПОС от значения максимального количества значимых текстов показан ниже (Рис. 20). Его ход отражает факт наличия некоего приблизительно постоянного набора Рис. 20. Число слов, удаленных из ПОС терминов естественно- тематического подъязыка. Рекомендуемое значение этого критерия на первом этапе обратно пропорционально предполагаемому числу тем в выборке. Для однородной смеси разных тематических выборок в тестовой выборке их 2 – имеем 50%. Прямая линия отражает поведение кривой при гипотетически равномерном распределении терминов ПОС по текстам. 3.2. Алгоритм разбиения основного естественно-тематического словаря на ряд предметно-ориентированных словарей После выбора надлежащих критериев отбора для каждого слова подсчитывается число словоупотреблений в каждом тексте. Эти данные организуют матрицу текст/слово. Для того, чтобы подчеркнуть информативность наличия хотя бы одного слова в тексте от величины числа словоупотреблений переходим к ее двоичному логарифму. В программе можно выбрать различные способы нормировки числа словоупотреблений – двоичный логарифм, десятичный логарифм и саму величину числа словоупотреблений. Эмпирический опыт показывает, что наиболее эффективным является двоичный логарифм, причем при отсутствии данного слова в тексте принимается значение равное –1. Так как в базе данных может быть значительное число текстов, работать с матрицей текст/слово может быть затруднительно. Поэтому матрица текст/слово служит только для расчета матрицы слово/слово. Группы слов, организованные темами в матрице текст/слово, проявятся в матрице слово/слово как блоки, симметричные относительно главной диагонали. Специально для работы с такими матрицами разработан алгоритм поиска устойчивых кластеров. Этот алгоритм чрезвычайно эффективно выделяет в условиях большого числа связных объектов наиболее устойчивые группы, алгоритм описан в 3-й главе. Матрица слово/слово положительная, симметричная и имеет по диагонали 1. Смысл недиагональных элементов заключается в том, сколько раз встретилась данная пара слов во всех текстах. Не смотря на то, что слова уже прошли предварительный отбор по выше описанным критериям, есть возможность дополнительно выделить пары слов, которые неравномерно распределены по матрице и могут организовывать непересекающиеся группы. Для этого в программе Visual HCA используется критерий максимального значения числа векторов матрицы, не включающих минимальное значение. В случае матрицы слово/слово этот критерий ограничивает для каждого слова число других слов, вместе с которыми данное слово встречается в текстах. Эта операция слова, существенно прошедшие “прореживает” матрицу, однако не совсем корректна, так как при больших значениях данного критерия отбрасываются предварительный отбор. Применять этот критерий следует очень осторожно и на основании опыта эксперта. После того как эксперт выделит цветом группы слов производится сортировка матрицы слово/слово по цвету объектов так что объекты с одинаковыми цветами располагаются рядом с друг другом. Сохранив отдельные текстовые файлы слова из различных групп, эксперт анализирует полученные словари с целью возможного внесения исправлений и дополнений в них. Для проверки правильности и работоспособности в алгоритмах смыслового анализа данные словари проверяются как основа для разбиения на группы всех текстов базы данных. Для этого в программе Администратор рассчитывается матрица текст/словарь, элементом которой служит процент слов из данного словаря в данном тексте. Эта матрица не симметричная и имеет существенно меньшую размерность, чем матрица текст/слово. Группы текстов в данной матрице должны совпадать с группами текстов в матрице текст/слово. В случае мало информативности словаря он должен быть исключен из процесса. Если число текстов в базе данных очень велико можно взять случайную выборку и провести кластерный анализ на ней. Основной задачей на этом этапе является доказательство верности выбранного числа тематических словарей и их значимости, то есть не должно быть много текстов с низким процентным содержанием слов из построенных словарей.

Рис. 21. Матрицы слово/слово Для каждого индекса ПОС может быть построен заново путем отбора слов в него только из текстов данной группы. Эта процедура аналогична построению ПОС для всей базы данных, как часть текстов будто рассматривается как независимо. Общее число слов в данной группе текстов уменьшится и, следовательно, статистическая ошибка определения частоты увеличится. По окончании процедуры для каждого текста базы данных определяется свой ПОС, индекс которого сохраняется в записи. Полученный для каждого индекса ПОС будут более полными, но и будут иметь пересечения общие слова. Набор таких ПОС составит одноуровневый естественно-тематический классификатор базы данных. На верхней картинке (Рис.21) приведен пример изменения матрицы слово/слово при уменьшении критерия максимально значимое число текстов для отбора слов. Критерий составил последовательно 20,50,100%, число слов, отобранных в ПОС соответственно равнялось 172,263,354. На картинках видно, как при увеличении критерия расширяется общая часть матрицы слово/слово, то есть общие слова, выделенные статистически из всех текстов, являются фоном, амплитуда которого существенно превышает амплитуду тематических слов. Если рассмотреть содержание словарей построенных из общей части, то в них обнаруживаются часто употребляемые слова из общеупотребительной лексики, которые в данных текстах послужили словами окружения при употреблении естественнотематических слов. Отсечь такие слова путем увеличения границы превышения частоты можно, но это приведет к потере части нужных терминов, поэтому необходимо воспользоваться тем фактом, что слова окружения для различных терминов часто совпадают, так как являются частью привычного шаблона принятого в научной среде при написании статей и, следовательно, присутствуют в большинстве текстов. Число слов в ПОС уменьшается пропорционально уменьшению критерия максимального числа значимых текстов. Общая тенденция к разделению на две основные группы слов при этом сохраняется. Однако, выявляются более мелкие группы слов на основном фоне, которые описывают частные группы текстов. При использовании этих мелких групп для создания словарей, теряется существенная часть значимых слов, которые описывают основные темы базы данных. Поэтому попытка использовать эти мелки словари в процедуре разделения всех текстов базы данных на группы делается неудачной. Очевидно, недостаток информации для этого разделения приводит к тому, что многие тексты, оказывается, содержат слова из этих словарей в очень слабой степени. На следующих картинках показаны группы файлов, полученные при анализе матрицы текст/ПОС, созданной для всех ПОС выделенных при различных выше приведенных критериях. В принципе наилучший результат показывает критерий максимального числа значимых текстов в 50%, так как число тематических групп в тестовой базе данных 2. Если заранее неизвестно число тематических групп, следует применять различные критерии максимального числа значимых текстов и после определить, при котором из них достигаются наилучшие результаты. Этот критерий должен быть близок к 100% деленному на число тематических групп в случае если число тематических групп не слишком велико. Нижний рисунок 22 иллюстрирует группы текстов, найденные с использованием словарей, полученных в результате анализа матрицы слово/слово. На вернем рисунке – устойчивые группы на графе, на среднем – в факторном пространстве, на нижнем – блочная структура матрицы текст/ПОС. Из всех трех картинок хорошо видно, что тексты разбиваются на две основные группы, одна из которых структурируется далее на три взаимно пересекающиеся группы. Тенденция к сходимости к данному результату наблюдается при всех критериях максимального количества текстов, и наилучший результат достигается вблизи 50-70%. образом, словари ПОС могут быть использованы как Таким для базис предварительного определения естественно-тематических групп даже если число этих групп заранее неизвестно. Требуется, меняя критерии отбора слов в ПОС, получить наиболее четкое, если возможно, разделение текстов на группы. Причем, лучше всего одновременно использовать словари ПОС, полученные при разных критериях отбора, при создании матрицы текст/ПОС.

Рис. 22.

Группы текстов в разных окнах Visual HCA Работа с матрицей текст/текст Матрица текст/текст симметричная положительная и имеет по диагонали 1 и недиагональные элементы меньше 1, смысл которых в том, какой процент из слов одного текста встретился в другом тексте. Анализируемые слова взяты из общего ПОС системы. На рисунке 23 показано изменение матрицы текст/текст при увеличении критерия максимального количества значимых текстов 20,50,70,100%. Так как матрицы текст/текст и слово/слово являются Рис. 23.

Матрицы текст/текст производными от матрицы текст/слово их поведение в целом совпадают. Так как число текстов в тестовой базе данных 85 меньше, чем объем словарей ПОС во всех случаях для данного критерия, при больших значения числа слов в ПОС (100%) границы между группами текстов существенно размываются. Из картинок видно, что две основные группы текстов, отвечающие разным тематикам, успешно выделяются при средних значениях критерия максимального количества значимых текстов. Основной целью на первом предварительном этапе подготовки базы данных к применению алгоритмов смыслового анализа текстов будет получение набора словарей ПОС, в пространстве которых группы текстов будут совпадать с группами текстов, полученными при анализе матрицы текст/текст. Количество ПОС при этом может быть существенно больше, чем число групп, хотя количество тематических словарей, естественно, будет совпадать с числом выделенных групп текстов (тем). Этот факт есть следствие потери части информации при применении вышеописанных критериев в процессе выделения значимых слов, а также следствие того факта, что все слова в текстах являются взаимосвязанными тематическим смыслом и не могут рассматриваться отдельно друг от друга. Задача выделения группы текстов из некой совокупности текстов и задача выделения группы слов несколько различаются между собой. Тексты представляют для нас единицы смысла, поэтому взаимоотношения текстов могут быть описаны и поняты экспертом в рамках исследуемой модели. Слова представляют для нас только средство для выделения групп текстов и сами по себе не несут прямой смысловой нагрузки. Единицей смысла в пространстве слов является словарь ПОС – набор слов. Так как набор слов может быть по разному переведен на естественный язык экспертом в силу многозначности слова как такового и из-за личных предпочтений эксперта, набор слов ПОС может быть поставлен в соответствие какому-либо тексту только в рамках неформальной логики. То есть еще раз приходим к выводу о том, что задача выделения групп текстов – слабоформализована. Это значит, что факт принадлежности текста к какой-либо группе зависит от личных предпочтений эксперта, использующего эвристический алгоритм смыслового анализа. И даже на уровне пользователя система должна оставить и ему некую свободу выбора при использовании данного алгоритма, следую общей логике поведения. Подробнее об этом будет сказано ниже. После того, как определены группы текстов, каждому тексту из заданной группы ставится в соответствие числовой код, по которому система определяет какой словарь ПОС определен для данного текста. Набор этих словарей будем далее называть естественно-тематическим классификатором базы данных. 3.3. Алгоритм создания естественно-тематического классификатора Словари, в пространстве которых тексты четко разделяются на группы, определяются при анализе матрицы слово/слово при различных критериях отбора слов. Таких словарей может быть больше, чем число тематических групп текстов. Сложность возникает в случае структурирования большой базы данных, в которой число текстов много больше среднего объема ПОС. Если для расчета матрицы слово/слово применяются битовые шкалы, то одновременно определить тематический индекс для всех текстов базы данных, если их больше 1000 представляется затруднительным из-за требований по выделению больших объемов памяти. Поэтому так важно на первом этапе правильно выбрать базовый набор словарей ПОС, в пространстве которых значительное большинство текстов разделяются на тематические группы. Рассчитав факторы для базового набора ПОС можно последовательно определить тематический индекс для всех текстов базы данных, пользуясь эллипсами рассеяния. Далее для каждого индекса определяется свой ПОС, критерии выбора слов в который существенно отличаются от критериев выбора слов в основной ПОС. Резко увеличивается критерий минимального числа значимых текстов с тем, чтобы выбрать слова встречающиеся как можно шире по данной теме.

Критерий максимального количества значимых слов надо взять 80-90%, чтобы отсечь общеупотребительные слова, которые встречаются во всех текстах как шаблоны. Граничная частота может быть значительно увеличена, так как уменьшение числа слов в группе по сравнению с общим объемом выборки приведет к увеличению статистической ошибки определения частоты словоупотреблений. После того, как система изготовит тематические словари ПОС, эксперт должен внимательно изучить полученные списки слов, исключив из них несущественные по его мнению слова. Дополнить список эксперт может по своему усмотрению, эта операция требует особой осторожности, так как зависит от личных предпочтений эксперта и может сместить естественную оценку, что приведет к неверной работе алгоритмов по извлечению знаний из накопленной информации. Лучше всего, изменяя критерии отбора проследить за тем, какие термины удаляются из словаря ПОС и оставить те из них, которые представляются необходимыми.

Рис. 24. Выбор тематического индекса (здесь рубрика) при создании ПОС Добавлять самому синонимы и связные термины не рекомендуется, так как если использование синонима действительно принято в научной среде, он неизбежно попадет в ПОС, если же нет - использование его ничего не даст алгоритму сравнения, который опирается не на результат поиска по словам (поиск по синонимам будет идти если они есть в текстах), а опирается на группы слов, оптимальным образом поставленные в соответствие темам базы данных. В базе данных электронного каталога ИРБИС естественно-тематический классификатор выглядит аналогично многоуровневому рубрикатору ГРНТИ [19]. Верхнему индексу 0 соответствует словарь ПОС “нулевой рубрики”, который создается с использованием всех файлов базы данных на начальном этапе структуризации. Каждый словарь ПОС – это текстовый файл в виде списка слов в директории базы данных с именем базы данных и индексом темы и с расширением DCT. Каждый ПОС представляет для пользователя тематический контекст, в рамках которого работают алгоритмы смыслового анализа текстов. Как следует из вышеприведенных описаний для выделения текстов в группы, а значит и для определения темы для данного текста, необходимо выделить значимые слова. Алгоритм сравнения текстов работает, в принципе, на основе любого предложенного списка слов, но достоверность анализа существенно зависит о правильности определения контекста. Система не определяет смысл текста как таковой, система находит в базе данных тексты, тематически близкие данному. Как использовать полученную информацию зависит уже от уровня подготовленности пользователя. 3.4. Сравнение текстов в алгоритме смыслового анализа Расположить по порядку применения этапы подготовки к смысловому анализу текстов в полнотекстовой базе данных можно следующим образом: 1. Поиск текста по вторичному описанию текста. 2. Поиск по словам извлеченным из текста, как дополнение к 1-му виду поиска. Этот поиск дает возможность уменьшить количество найденных текстов за счет отбора тех, в которых встречаются нужные узкоспециализированные термины.

Появляется возможность использовать запрос на естественном языке, что важно для интерфейсов находящихся в обще пользовательском режиме и ориентированном на “средне продвинутого” пользователя. 3. Сравнение найденных текстов в выбранном контексте. На этом этапе используется дополнительная информация о словах, извлеченных из текстов. Слова делятся на группы значимых и ключевых слов. Значимые слова образуют предметно-ориентированные словари ПОС, которые в принципе могут пересекаться между собой, то есть иметь общие слова. Всему массиву текстов в целом ставится в соответствие словарь ПОС “нулевой рубрики”. Этот ПОС необходимы для устойчивого включает значимые слова, которые выделения различных естественно тематических групп текстов. Каждой группе текстов ставится в соответствие свой ПОС, слова из которого образуют контекст данной тематической группы. Используя пространство слов из заданного контекста, становится возможным сравнение независимых текстов как внешних, так и находящихся в базе данных. Здесь необходимо подчеркнуть, что так как слова, вошедшие в ПОС, выбраны экспертом из набора текстов, их совместная совокупность в целом характеризует контекст накопленной информации, абстрактный тематический контекст не является предметом рассмотрения. Этот факт очень выгоден, так как дает возможность отыскать среди текстов максимально близкий заданному тексту, если смотреть на образец с позиций естественнотематического контекста, существующего в виде набора словарей ПОС. Абстрактное сравнение текстов представляется бессмысленным, так как результат такого сравнения очень сильно зависит от точки зрения эксперта, поставившего такую задачу. Ставится задача использовать скрытое знание, накопленное в базе данных в виде набора значимых слов ПОС. 4. Нахождение среди группы текстов ядра. Эта задача носит экспертный характер и необходима при поиске текста, который наилучшим образом представляет некий набор текстов в выбранном тематическом контексте. Кроме набора ПОС для решения этой задачи применяются знания эксперта как аналитика в некой тематической области знаний. На базе алгоритма сравнения текстов строится числовая матрица вида текст/текст и в программе Visual HCA осуществляется классификация текстов. Решить эту задачу автоматически без участия эксперта представляется более чем затруднительным, хотя для технологии Интернет возможен только такой режим. Об использовании данной технологии в Интернете речь пойдет в 4-й главе. 5. Автоматизированное реферирование и выделение фрагментов из найденных текстов. Этот режим использует словари ПОС и алгоритм скользящего окна для выделения фрагментов. Подробно описывается ниже. Основанием для фрагментации текста служит факт сгущения специальных смысловые терминов в части. местах описания материала и пояснения в к тексте. ним, Естественным образом автор делит текст на концептуальные и общие Например, определения утверждения и доказательства, описательное вступление и специальное рассмотрение и т.д. Используя этот факт можно выделить из теста фрагменты и сравнить их аналогично тому, как сравниваются тексты. Результатом такого сравнения служат группы фрагментов, анализируя которые эксперт может сделать вывод о взаимосвязи текстов, из которых они извлечены. Сравнение текстов на предварительном этапе заключается в поиске такой тематической группы в базе данных, словарь ПОС которой наиболее широко представлен в данном тексте. Определено, что для текстов из данной тематической группы среднее значение в процентом отношении числа слов, которые присутствуют в данных текстах, колеблется в широких пределах. Будем обозначать данное значение как ПОСi. Конкретное значение ПОСi сильно зависит от объема словаря ПОС, чем больше слов в ПОС, тем меньше среднее значение ПОСi. Фактически ПОСi – это словарь, описывающий данный текст в контексте тематической группы с индексом i. Такие словари принято называть поисковым образом текста. Число слов в ПОСi зависит от суммарного числа слов в тексте и если для каждого текста ввести коэффициент отклонения от максимального числа слов (или среднего по группе) Wi=Ni/Nmax, то коэффициент отношения данного текста к тематической группе с индексом i будет равен Ri=ПОСi*Wi. Данное значение будем называть релевантностью текста тематической группе с индексом i.

Рис. 25. Релевантность в контекстах разных ПОС Релевантность, рассчитанная с учетом числа слов в тексте, более устойчивая величина не только при переходе от текста к тексту внутри тематической группы, но и вне ее. Поэтому наиболее достоверной характеристикой принадлежности текста к группе будем считать процент ПОС в данном тексте – ПОСi.

На вернем рисунке 25 показано изменение значение релевантности и релевантности с учетом числа слов в тексте в контекстах разных ПОС для тематической группы текстов с индексом 1 (экология). Красная кривая – ПОС1(экология), синяя кривая – ПОС2(социология). Из рисунка видно, что значения релевантности для каждого текста значимо отличаются, однако для разных текстов значения релевантности могут смещаться. На нижнем рисунке 26 показано значение релевантности текстов из разных тематических групп заданному тексту-образцу. Файл-образец взят из тестовой базы и относится к ПОС1 – экология.

Pages:     || 2 |





© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.