WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 36 | 37 || 39 | 40 |   ...   | 58 |

=> (отпор(Apple, IBM), атака(IBM, Apple)) Таблица 3. Точность поиска аналогов для разных типов сходства Тип сходства LS SF AN FOR MAC (10%) 0.5 0.1 0.08 0.MAC/FAC (10%) 1.00 1.00 1.00 0.АПНС (1) FCDT=0.1 1.00 1.00 1.00 1.АПНС (1) FCDT=0.2 1.00 1.00 1.00 1.АПНС (10%) FCDT=0.1 1.00 1.00 1.00 1.АПНС (10%) FCDT=0.2 1.00 1.00 1.00 0.Для реализации преимуществ РП 11), предложения, фрагмента текста, или структур, связанных с естественным целые тексты (Рис. 12). Конструируются учетом сходства объектов, необходимо векторы частот совместной встречаемости создать представления объектов слова и контекста. Затем, эти векторы (сущностей, отношений, признаков и т.п.), могут быть преобразованы в РП, сходные для семантически сходных например, описанными выше объектов. Так, если кодвектор страны проекционными методами.

США будет сходен с кодвектором страны Результирующие контекстные векторы Ирак, больше шансов найти по входному могут использоваться для представления эпизоду нужный аналог в базе. понятий (объектов) при конструирования Для этого можно использовать РП структур. Они могут также информацию из онтологий – Cyc, использоваться и в других задачах – SemanticWeb и др. Однако таких ресурсов поиска и классификации текстов, а также мало, они дорогостоящие в создании, для определения меры семантической зачастую закрытые или платные. близости слов и контекстов [46].

Предложены и альтернативные подходы к Другой подход к извлечению автоматизированному созданию таких семантической информации – анализ веб"семантических" представлений. страниц в сетях Internet и Intranet, где такая Один из подходов носит название информация присутствует в огромных "контекстные векторы" [45-47]. Он количествах. Семантическая информация исходит из того, что семантическое дает возможность определить, скажем, что сходство понятий определяется некоторое имя является названием фирмы, "сходством употребления", то есть или именем человека, или названием сходные понятия встречаются в товара. Однако, понимает это пока только одинаковых контекстах. Контекстом человек. SemanticWeb находится на ранней можно считать некоторое окружение слова стадии развития и пока не в состоянии – слова в пределах скользящего окна (Рис. реально справиться с этой задачей. Даже Материалы XVI Международной конференции по нейрокибернетике такие крупные и технологически Если предположить, что нужная продвинутые компании, как Microsoft, информация встречается в похожих Apple, и др. не используют явной контекстах, то можно действовать так.

семантической разметки. Например, на Пусть известна семантическая разметка соответствующих веб-страницах сайтов для некоторых веб-страниц. Представим компаний находится персональная фрагменты их содержимого контекстными информация о сотрудниках компаний, векторами, и на основании сходства которая включает полное имя, компанию, контекстных векторов нанесем должность и краткую биографию. Однако семантическую разметку на страницы, на в html-коде веб-страниц ничего не которых ее еще нет. Затем эта указывает на это. Поэтому такого рода семантическая разметка может информацию надо извлекать использоваться как семантические специальными методами. признаки объектов.

Рис. 11. Формирование контекстных векторов с контекстами – окнами.

Рис. 12. Формирование контекстных векторов с текстами в качестве контекстов.

Перспективы развития подхода вручную, что является "бутылочным рассуждений по аналогии требуют горлышком" процесса приобретения автоматизации конструирования не только знаний. Один из перспективных подходов – семантических представлений, но и БЗ извлечение знаний из текстов [48]. Речь эпизодов-аналогов, которые сейчас идет о представлении ситуаций, конструируются главным образом содержащихся во фрагментах текста, в виде 4-Й МЕЖДУНАРОДНЫЙ СИМПОЗИУМ «НЕЙРОИНФОРМАТИКА И НЕЙРОКОМПЬЮТЕРЫ» реляционных структур. Здесь нужен так появление доступных лексиконов, называемый глубокий разбор фрагментов сконструированных исследователями.

текста. Такой разбор зачастую требует Появляются и парсеры – как на символьной наличия модели мира, включающей знания основе [50], так и на основе здравого смысла, общую онтологию, распределенных представлений [51].

знания предметных областей и Использование лексикона дало бы естественных языков. Возможный путь возможность формировать признаковые реализации такого глубокого разбора – эта семантические представления слов разбор как раз путем рассуждений по (понятий) на его основе, наращивать его по аналогии с имеющимися базами глубокого аналогии или по сходству контекстных разбора. векторов слов, производить контекстноОднако не для всех задач требуется зависимый поиск сходства (пицца похожа глубокий разбор текстов – для некоторых на летающую тарелку и на пирожное – в задач может быть достаточно зависимости от контекста выберется грамматического разбора. Результаты нужный признак сходства).

разбора в виде соответствующих структур Заключение могут оказаться полезными для таких Таким образом, распределенные задач, как ответы на вопросы. Речь идет о представления, построенные на основе поиске готовых ответов на вопросы в идей о представлении информации в мозге, массиве текстов. Тут не требуется при использовании в информационных рассуждений по аналогии на основе технологиях позволяют повысить их анализа ситуации, описанной в целом вычислительную эффективность за счет фрагменте текста или в базе знаний.

преобразования разнотипных данных – как Достаточно получить и сравнить неструктурированной информации в виде грамматические структуры предложениямассивов векторов, так и реляционных вопроса и предложений текстов базы, структур баз знаний – в специальный которые могут содержать ответ на этот формат бинарных векторов. Кроме того, вопрос. Если эти структуры и сущности распределенные представления позволяют (объекты) в них сходны, можно выдвинуть естественным образом соединить гипотезу, что предложение является информацию о структуре и семантике, ответом на вопрос, и затем ее открывая возможности создания верифицировать.

вычислительно эффективных и качественно Одним из интересных направлений в новых методов обработки реляционных грамматическом разборе является структур баз данных и знаний по сходству использование парсеров, реализующих их представлений. Нейробиологическая минималистскую программу Хомского [49] релевантность распределенных – как определенную альтернативу его представлений дает надежду на создание на ранним воззрениям. В этих грамматиках их базе интеллектуальных только две операции – бинарная операция информационных технологий, слияния (merge) и унарная операция функционирующих аналогично передвижения (move). Основная нагрузка человеческому мозгу.

ложится на лексикон – словарь понятий, Список литературы где каждому понятию соответствует 1. Амосов Н.М. Моделирование мышления и богатый набор признаков. Признаки психики. Киев: Наукова думка, 1965, 304 с.

являются парными (комплементарными – 2. Амосов Н.M., Байдык T.Н., Гольцев A.Д., типа агент-реципиент), и определяют Касаткин A.M., Касаткина Л.M., Куссуль Э.M., Рачковский Д.A. Нейрокомпьютеры и допустимые сочетания единиц лексикона интеллектуальные роботы. Киев: Наукова думка, для применения к ним бинарной операции.

1991, 269 c.

Основные проблемы в этом подходе 3. Куссуль Э.M. Ассоциативные нейроподобные – формирование лексикона и реализация структуры. Киев: Наукова думка, 1992, 144 с.

парсера. Рост популярности этого направления исследований дает надежду на Материалы XVI Международной конференции по нейрокибернетике 4. Байдык Т.Н. Нейронные сети и задачи 22. Thorpe S. Localized versus distributed искусственного интеллекта. Киев: Наукова думка, representations // The Handbook of Brain Theory and 2001, 263 с. Neural Networks. Edited by M. A. Arbib. Cambridge, 5. Гольцев А.Д. Нейронные сети с ансамблевой MA: The MIT Press, 2003, P. 643–646.

организацией. Киев: Наукова думка, 2005, 200 с. 23. Page M. Connectionist modelling in psychology: A 6. Kussul E. M., Baidyk T. N., Wunsch D. C. Neural localist manifesto // Behavioral and Brain Sciences, Networks and Micro Mechanics. New York: Springer, 2000, 23, P. 443–512.

2009, 210 p. 24. Rachkovskij D. A., Kussul E. M. Binding and 7. Aamodt A., Plaza E. Case-based reasoning: normalization of binary sparse distributed Foundational issues, methodological variations, and representations by context-dependent thinning // Neural system approaches // AI Communications, 1994, 7(1), Computation, 2001, 13(2), P. 411–452.

P. 39–59. 25. Plate T. Holographic Reduced Representation:

8. Markman A. B., Rachkovskij D.A., Misuno I. S., Distributed Representation for Cognitive Structures.

Revunova E.G. Analogical reasoning techniques in Stanford: CSLI Publications, 2003, 300 p.

intelligent counterterrorism systems // Informational 26. Kanerva P. Hyperdimensional computing: an Theories and Applications, 2003, 10(2), P. 139–146. introduction to computing in distributed representation 9. Aha D. W. The omnipresence of case-based with high-dimensional random vectors // Cognitive reasoning in science and application // Knowledge- Computation, 2009, 1(2), P. 139-159.

Based Systems, 1998, 11(5–6): P. 261–273. 27. Gayler R. Multiplicative binding, representation 10. Lopez De Mantaras R., Mcsherry D., Bridge D., operators, and analogy // Advances in Analogy Leake D., Smyth B., Craw S., Faltings B., Maher M. L., Research: Integration of Theory and Data from the Cox M. T., Forbus K., Keane M., Aamodt A., Watson I. Cognitive, Computational, and Neural Sciences. Edited Retrieval, reuse, revision and retention in case-based by K. Holyoak, D. Gentner, and B. Kokinov, Sofia, reasoning // Knowledge Engineering Review, 2005, Bulgaria: New Bulgarian University, 1998, P. 405.

20(3), P.215–240. 28. Коган А.Б. Функциональная организация 11. Slipchenko S.V., Rachkovskij D.A. Analogical нейронных механизмов. Л.: Медицина, 1974, 224 с.

mapping using similarity of binary distributed 29. Антомонов Ю.Г. Принципы нейродинамики.

representations // International Journal "Information Киев: Наукова думка,.1974, 200 c.

Theories and Applications", 2009, issue 3, P. 269-290. 30. Чораян О.Г. Нейронный ансамбль. РГУ, 1990, 12. Falkenhainer B., Forbus K. D., Gentner. D. The с.

structure-mapping engine: Algorithm and examples 31. Dunin-Barkowski W.L. Data formats in //Artificial Intelligence, 1989, 41, P. 1–63. multineuronal systems and brain reverse engineering // 13. Thagard P., Holyoak K.J., Nelson G., Gochfeld D. Biologically Inspired Cognitive Architectures Analog retrieval by constraint satisfaction // Artificial Proceedings of the Second Annual Meeting of the BICA Intelligence, 1990, 46(1–2), P. 259–310. Society, Edited by Alexei V. Samsonovich, Kamilla R.

14. Forbus K.D., Gentner D., Law K. MAC/FAC: A Jhannsdttir, 2011, P. 103.

model of similarity-based retrieval, 1995, Cognitive 32. Mantas Lukoeviius, Herbert Jaeger Reservoir Science, 19(2), P.141–205. computing approaches to recurrent neural network 15. Bunke H. Graph matching: Theoretical foundations, training // Computer Science Review, 2009, 3(3), P.

algorithms, and applications // Proceedings of Vision 127–149.

Interface, 2000, P. 82–88. 33. Johnson W., Lindenstrauss J. Extensions of 16. Bunke H. Recent developments in graph matching // Lipschitz mappings into a Hilbert space // Proceedings of the Fifteenth International Conference Contemporary Mathematics, 26, 1984, P. 189–206.

on Pattern Recognition, 2000, 2, P. 117–124. 34. Рачковский Д.А., Мисуно И.С., Слипченко С.В.

17. Schenker A., Bunke H., Last M., Kandel A. Graph- Рандомизированные проекционные методы theoretic Techniques for Web Content Mining. River формирования бинарных разреженных векторных Edge, NJ: World Scientific, 2005, 248 p. представлений // Кибернетика и системный анализ, 18. Markman A. B., Gentner D. Structure mapping in 2012, № 1, С. 176-188.

the comparison process // American Journal of 35. Frolov A. A., Husek D., Rachkovskij D.A. Time of Psychology, 2000, 113, P. 501–538. searching for similar binary vectors in associative 19. Riesen K., Fankhauser S., Bunke H., Dickinson P. memory // Cybernetics and Systems Analysis, 2006, Efficient suboptimal graph isomorphism // Graph-Based issue 5, P. 615-623.

Representations in Pattern Recognition, Vol. 5534 of 36. Frolov A.A. Husek D., Polyakov P.Yu. RecurrentLecture Notes in Computer Science. Edited by A. neural-network-based boolean factor analysis and its Torsello, F. Escolano, and L. Brun. Springer: Berlin, application to word clustering // IEEE Transactions on 2009, P. 124–133. Neural Networks, 2009, 20(7), P. 1073-1086.

20. Wilson R. C., Hancock E. R., Luo B. Pattern vectors 37. Revunova E.G., Rachkovskij D.A., Using from algebraic graph theory // IEEE Transactions on randomized algorithms for solving discrete ill-posed Pattern Analysis and Machine Intelligence, 2005, 27(7), problems // International Journal "Information Theories P. 1112–1124. and Applications", 2009, issue 2, P. 176-192.

21. Robles-Kelly A., Hancock E. R. A riemannian 38. Rachkovskij D.A., Revunova E.G. Intelligent approach to graph embedding // Pattern Recognition, gamma-ray data processing for environmental 2007, 40, P. 1024–1056. monitoring // Intelligent Data Processing in Global 4-Й МЕЖДУНАРОДНЫЙ СИМПОЗИУМ «НЕЙРОИНФОРМАТИКА И НЕЙРОКОМПЬЮТЕРЫ» Monitoring for Environment and Security. Kiev-Sofia: 1778. Edited by S. Wermter, and R. Sun. Berlin:

ITHEA, 2011, P. 136-157. Springer, P. 204–210.

39. Рачковский Д.А., Ревунова Е.Г. 46. Мисуно И.С., Рачковский Д.А., Слипченко Рандомизированный метод решения дискретных С.В.Векторные и распределенные представления, некорректных задач // Кибернетика и системный отражающие меру семантической связи слов // анализ, 2012. Математические машины и системы, 2005, № 3, С.

40. Rachkovskij D.A., Slipchenko S.V. Similarity-based 50–66.

retrieval with structure-sensitive sparse binary 47. Sahlgren M., Holst A., Kanerva P. Permutations as a distributed representations // Computational means to encode order inword space // Proceedings of Intelligence, 2012, 28(1), P. 106-129. the 30th Annual Meeting of the Cognitive Science 41. Ubiquitous High Performance Computing (UHPC) Society (CogSci’08), 2008, Washington, DC, P. 23–26.

Pages:     | 1 |   ...   | 36 | 37 || 39 | 40 |   ...   | 58 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.