WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     || 2 | 3 |
-- [ Страница 1 ] --

ИНФОРМАТИКА И ИНФОРМАЦИОННЫЕ СИСТЕМЫ В ЭКОНОМИКЕ Издательство ТГТУ Министерство образования и науки Российской Федерации Государственное образовательное учреждение высшего профессионального

образования "Тамбовский государственный технический университет" Е.А. РАКИТИНА, В.Л. ПАРХОМЕНКО ИНФОРМАТИКА И ИНФОРМАЦИОННЫЕ СИСТЕМЫ В ЭКОНОМИКЕ ЧАСТЬ 1 Утверждено Ученым советом университета в качестве учебного пособия Тамбов Издательство ТГТУ 2005 УДК 330.47(075) ББК У.я73-2 Р19 Рецензенты:

Доктор экономических наук, профессор Б.И. Герасимов Доктор педагогических наук, профессор Н.В. Молоткова Ракитина Е.А., Пархоменко В.Л.

Р19 Информатика и информационные системы в экономике: Учеб. пособие. Ч. 1. Тамбов: Изд-во тамб. гос. техн. ун-та, 2005. 148 с.

Содержит систематизированное изложение курса лекций по информатике и информационным системам в экономике, предусмотренных в качестве обязательных дисциплин в государственном образовательном стандарте специальностей: 080109 – бухгалтерский учет, анализ и аудит;

080105 – финансы и кредит;

080705 – менеджмент организации.

Рассматриваются вопросы, связанные с особенностями создания и функционирования инфор мационных систем, в том числе автоматизированных, закономерностями протекания информаци онных процессов, средствами и технологиями автоматизированной обработки информации.

Предназначено для студентов экономических специальностей высших учебных заведений.

УДК 330.47(075) ББК У.я73- ISBN 5-8265-0404-8 © Ракитина Е.А., Пархоменко В.Л., © Тамбовский государственный технический университет (ТГТУ), Учебное издание РАКИТИНА Елена Александровна ПАРХОМЕНКО Василий Львович ИНФОРМАТИКА И ИНФОРМАЦИОННЫЕ СИСТЕМЫ В ЭКОНОМИКЕ ЧАСТЬ Учебное пособие Редактор Е.С. Мордасова Компьютерное макетирование М.А. Филатовой Подписано в печать 20.10. Формат 60 84 / 16. Бумага газетная. Печать офсетная.

Гарнитура Тimes New Roman. Объем: 8,06 усл. печ. л.;

8,22 уч.-изд. л.

Тираж 100 экз. С. Издательско-полиграфический центр Тамбовского государственного технического университета, 392000, Тамбов, Советская, 106, к. ПРЕДИСЛОВИЕ В государственном образовательном стандарте для экономических специальностей информатика отнесена к общим математическим и естественнонаучным дисциплинам. Стандарт по информатике тре бует изучения следующих вопросов: "понятие информации, общая характеристика процессов сбора, пе редачи, обработки и накопления информации, технические и программные средства реализации инфор мационных процессов;

инструментарии функциональных задач;

алгоритмизация и программирование;

языки программирования высокого уровня;

базы данных;

программное обеспечение ЭВМ и технологии программирования;

локальные и глобальные сети ЭВМ;

основы и методы защиты информации;

компь ютерный практикум"1.

Объем пособия не позволяет полностью раскрыть все вопросы, входящие в курс информатики и информационных систем в экономике. Авторы посчитали наиболее целесообразной следующую струк туру изложения материала:

• по каждой теме, вошедшей в данное учебное пособие, приведен план, включающий все основные вопросы, выносимые на экзамен;

• глубина освещения вопросов разная:

– вопросы, наиболее существенные для понимания курса в целом, раскрыты достаточно полно;

– некоторые вопросы раскрываются "схематически";

– для ряда вопросов, которые, как правило, достаточно подробно рассматриваются на лекциях, приводятся только определения основных понятий и/или пояснительные схемы;

– вопросы, знакомые студентам по школьному курсу и/или материал по которым можно легко найти в других учебниках и учебных пособиях, выносятся на самостоятельное изучение.

Тема 1 ВВЕДЕНИЕ В ИНФОРМАТИКУ.

ПОНЯТИЕ ИНФОРМАЦИИ В данной теме подробно рассмотрим следующие вопросы.

1 История развития информатики.

2 Основные объекты и методы изучения науки информатики.

3 Роль и место информации в современной естественнонаучной картине мира.

4 Основные подходы к феномену информации в современной науке.

5 Основные подходы к определению понятия "информация".

6 Носители информации. Виды и свойства информации.

7 Измерение информации.

"Кто владеет информацией - владеет миром" Талейран 1 ИСТОРИЯ РАЗВИТИЯ ИНФОРМАТИКИ Информатика как самостоятельная отрасль научного знания и область практической дея тельности появилась во второй половине ХХ в. Ее истоками можно считать:

Государственный образовательный стандарт высшего профессионального образования. Государственные требования к минимуму содержания и уровню подготовки специалистов по специальностям 060400, 060500, 060800. М.: Принт, 2000. 49 с.

– теорию информации, тесно связанную с теорией связи в технических системах (телефон, теле граф, радиосвязь), в частности, математическую теорию связи (Клод Шеннон, 1948 г.);

– кибернетику, исследующую общие законы управления в системах различной природы, основы которой заложил Ноберт Винер (1948 г.);

– теорию автоматов, основы которой заложил Джон фон Нейман (1946 г.);

– теорию алгоритмов (Н. Вирт, Э. Дейкстра, А.П. Ершов, Д. Кнут и др.).

Информатику традиционно связывают с развитием компьютерной техники. Но компьютер послужил лишь катализатором тенденций, которые возникли в науке и практике задолго до его появления. Каковы же эти тенденции? Прежде всего, резкое нарастание объема информации, ко торая с развитием средств связи становится доступной отдельному человеку. Приходит осознание того, что человеческие возможности восприятия и переработки информации ограничены. В то же время научно-технический прогресс, сопровождаемый высокими скоростями, развитием слож ных технических комплексов, ставит человека в условия, когда ему необходимо научиться быст ро и безошибочно перерабатывать информацию, чтобы эффективно управлять техникой. Реше ния часто приходится принимать в условиях дефицита времени, которые, к тому же, они могут быть чреваты большими последствиями. Задачи управления требуют применения таких средств, которые помогают собрать более полную информацию, надежно ее хранить, быстро распростра нять и безошибочно обрабатывать. Таким средством и стал компьютер. По сути, информатика призвана заниматься решением проблем, связанных с необходимостью организации информаци онных процессов (сбор, хранение, передача, обработка, защита и т.п.) и эффективного использо вания информационных ресурсов.

Компьютерные средства работы с информацией как основной объект изучения современной информатики представляет собой неразрывное единство трех частей – технического, программ ного и алгоритмического обеспечения информационных процессов и информационных систем.

Основной вопрос информатики – каковы информационные процессы и как они могут быть эф фективно автоматизированы?

Информатика широко использует достижения таких дисциплин, как математика, лингвисти ка, семиотика (наука о знаковых системах), логика, computer science, робототехника, инженерия знаний и др. В становлении информатики как науки вклад внесли многие замечательные ученые, среди них А.Н. Колмогоров, В.А. Котельников, А.А. Ляпунов, А.П. Ершов, В.С. Леднев, А.А. Харкевич, А.Я. Хинчин и др.

2 ОСНОВНЫЕ ОБЪЕКТЫ И МЕТОДЫ ИЗУЧЕНИЯ НАУКИ ИНФОРМАТИКИ Существует много определений информатики как науки и учебной дисциплины. Такое многообра зие мнений отражает тот факт, что информатика – это бурно развивающаяся наука, находящаяся в пе риоде становления. Сегодня быстро изменяются не только аппаратные средства и программное обеспе чение, но и методы работы с информацией, а также понимание роли информации в эффективном ис пользовании ограниченных материальных ресурсов и технических возможностей современного произ водства.

Чтобы определиться с основными объектами изучения в информатике, приведем несколько опреде лений информатики, которые представляют спектр основных мнений.

В 1978 г. на Международном конгрессе по информатике было предложена следующая формулиров ка определения понятия "информатика": "Понятие информатики охватывает области, связанные с раз работкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая машины, оборудование, математическое обеспечение, организационные аспекты, а также комплекс промышленного, коммерческого, административного и социального воздействия".

В следующем определении в явном виде подчеркивается двойственный характер информатики – фундаментальность и технологичность: "Информатика – в настоящее время одна из фундаментальных областей научного знания, формирующая системно-информационный подход к анализу окружающего мира, изучающая информационные процессы, методы и средства получения, преобразования, передачи, хранения и использования информации. Вместе с тем информатика – это стремительно развивающаяся и постоянно расширяющаяся сфера практической деятельности человека, связанная с использованием информационных технологий".

Методологическое определение: "Информатика – комплекс научных направлений и науко емких технологий, объединенных общим методом исследования – информационным подходом и общим предметом исследования – информационными процессами".

На наш взгляд, информатика – это наука о закономерностях протекания информационных про цессов в системах различной природы, о методах, средствах и технологиях автоматизации информа ционных процессов, о закономерностях создания и функционирования информационных систем.

В данной формулировке подчеркивается, что объектом изучения информатики как науки являются именно законы, закономерности, поскольку цели любой науки не только объяснительные, но и прогно стические. Основной предмет изучения – информационные процессы, но не сами по себе, а в их привяз ке к "носителю" – информационным системам. Прагматизм информатики обусловлен тем, что предме том ее исследования являются также методы, средства и технологии, обеспечивающие эффективную организацию информационных процессов и их автоматизированное выполнение.

С точки зрения вузовского образования, информатику следует рассматривать как существенный элемент гуманитарной культуры человека, который вносит решающий вклад в формирование совре менного научного мировоззрения, дает ключ к пониманию многих явлений нашей жизни, снабжает умениями, необходимыми для ориентирования в современном информационном пространстве и успеш ной деятельности в нем.

Таким образом, основными объектами изучения в информатике являются:

– информационные объекты (тексты, совокупности данных, алгоритмы и т.п.), т.е. информация, зафиксированная на каком-либо носителе;

– информационные ресурсы общества как совокупность созданных человечеством информацион ных объектов;

– информационные процессы (поиск, отбор, хранение, передача, обработка, хранение, кодирова ние, защита);

– информационные модели (в частности, структуры данных, алгоритмы, программы);

– информационные технологии, как совокупность методов, способов, протоколов реализации ин формационных процессов;

– информационные системы, как совокупность информационных ресурсов вместе с допустимыми для них информационными процессами, реализуемыми с помощью информационных технологий;

– компьютер и компьютерные системы как универсальные средства автоматизации информаци онных процессов.

В любом научном исследовании важно не только то, что исследуется, но и то, как исследуется, т.е.

важно иметь представление об основных методах исследования, а также о специфике применения об щенаучных методов в данной области знания. Общими для всех наук методами исследования являются наблюдение, теоретический анализ, эксперимент, в том числе вычислительный, моделирование и др. В каждой конкретной науке эти методы приобретают свою специфику.

Основными методами исследования в информатике являются:

– системно-информационный анализ как конкретизация системного подхода;

– информационное моделирование как конкретизация общенаучного метода моделирования;

– компьютерный эксперимент как разновидность свойственного всем наукам вычислительного эксперимента.

Быстрое увеличение объема существующей и циркулирующей в обществе информации ставит со временного человека перед проблемой умения работать с ней: находить, отбирать нужное, хранить, упаковывать и быстро извлекать из хранилища, обрабатывать и преобразовывать. Причем, информация все чаще может быть представлена не только в текстовом, наиболее привычном виде, но и как видео- и аудиоматериалы, схемы и анимационная графика и т.п. Владение методами, приемами и средствами ра боты с информацией становится одним из основных профессионально важных качеств специалиста лю бого профиля.

3 РОЛЬ И МЕСТО ИНФОРМАЦИИ В СОВРЕМЕННОЙ ЕСТЕСТВЕННОНАУЧНОЙ КАРТИНЕ МИРА В основе современной естественнонаучной картины мира лежит понятие материи. Для человека материя является объектом изучения и преобразования. Материя проявляется в двух формах: в форме вещества и в форме поля. Человек научился преобразовывать в своих интересах и вещество, и поле. Но чтобы успешно осуществлять преобразования, нужны определенные усилия – умственные и физиче ские. Размышляя об этом, человек пришел к понятию энергии, как неотъемлемого свойства материи.

Важность этого понятия для развития производства была такова, что установление законов изменения энергии, поиск ее источников на какое-то время стали одними из главных задач науки.

XX век с полным правом можно назвать веком научных революций. Теория относительности, кван товая теория, психоанализ, кибернетика и, наконец, информатика в корне поменяли научное представ ление о мире. Постепенно стало ясно, что преобразовательская деятельность, даже при достаточном ко личестве энергии, имеет свои ограничения. После взрыва атомной бомбы человечество особенно серь езно задумалось о том, что его действия могут иметь непредусмотренные последствия.

Постепенно пришло научное осознание факта (который на уровне религиозных воззрений был из вестен в глубокой древности), что каждый предмет, явление, событие имеет какой-то вполне опреде ленный смысл в общей картине мироздания. Человек в своей преобразовательской деятельности может учитывать или не учитывать этот смысл, однако в последнем случае есть опасность нарушить какие-то до конца не осознанные законы. А нарушение объективных законов всегда ведет к непредсказуемым, часто катастрофическим последствиям. Поэтому одной из главных задач современной науки стало вы яснение смысловых или, иначе говоря, семантических свойств материи. Причем, большинство уче ных склоняются к мысли, что в наибольшей степени семантическое свойство материи нашло свое отра жение в научном языке в понятии "информация".

Иными словами, информация как философская категория отражает семантические свойства мате рии. Это, в частности, означает, что (рис. 1):

• будучи свойством материи, информация присуща каждому материальному объекту;

• будучи семантическим свойством материи, она отражает смысловую сторону материального объекта;

• поскольку всеобщей формой существования материи является ее движение, изменение, то ин формация – это свойство материи, задающее (определяющее, отражающее) направление этого движе ния, его цель и смысл.

Рис. 1 Схематичное представление современной естественнонаучной картины мира Таким образом, понятие информации – одно из фундаментальных в современной науке. Наряду с такими понятиями, как вещество, энергия, пространство и время, оно составляет основу современной научной картины мира.

Методология современной науки базируется на информационном, системном, синергетическом подходах. Суть информационного подхода к научным исследованиям заключается в том, что при изуче нии любого объекта, процесса или явления (природного, технического или социального) в первую оче редь выявляются и анализируются их информационные характеристики. При этом часто удается выяс нить такие ранее незамеченные свойства этих объектов, которые оказываются принципиально важными для понимания глубинной сущности явлений и закономерностей их дальнейшего развития. Анализ ин формационной среды, в которой находятся изучаемые объекты, также помогает исследователю выявить причины многих явлений, в глубине которых, как правило, оказываются скрытыми информационные процессы.

4 ОСНОВНЫЕ ПОДХОДЫ К ФЕНОМЕНУ ИНФОРМАЦИИ В СОВРЕМЕННОЙ НАУКЕ В науке существует три основных подхода к феномену информации:

1 Атрибутисты полагают, что информация как семантическое свойство материи является не отъемлемым атрибутом всех систем объективной реальности, она существовала и существует вечно, является "организующим началом" в неживой и живой природе.

2 Функционалисты отрицают существование информации в неживой природе. По их мнению, ин формация – это одна из функций жизни, основное отличие живого от неживого. Именно информация через информационные процессы реализует функцию управления (самоуправления) в биологических, социальных и социотехнических системах.

3 Антропоцентристы ограничивают сферу распространения информации главным образом соци альными системами и определяют ее как содержание (смысл) сигнала, полученного человеком из внешнего мира. С их точки зрения говорить о смысле сигнала, а, следовательно, об информации можно только по отношению к человеку и обществу.

Все точки зрения имеют право на существование и исследуются в соответствующих областях науки: информация как семантическое свойство материи изучается в философии, информацио логии, физике;

информация как функция управления изучается в кибернетике, физиологии, био логии;

информация как интерпретация человеком воспринятого сигнала изучается в лингвисти ке, социологии, психологии.

Информатика изучает информационные процессы прежде всего в социотехнических (человеко машинных) системах. Эти системы относятся к типу управляемых и самоуправляемых систем и обяза тельно включают в себя субъекта – человека. Поэтому информатике как науке "ближе" второй и третий подходы. Это не означает отрицания наличия информации в неживой природе – просто эти проблемы интересуют информатику в меньшей степени. В современной информатике "на равных" существуют две точки зрения:

1 Все объекты в окружающем нас мире обладают некоторым смыслом (несут некоторую инфор мацию), а человек, изучая их, пытается проникнуть в этот смысл, раскрыть его (получить информацию).

Иными словами, информация объективно присуща материи и не зависит от человека.

2 Человек в процессе познания и практической деятельности приписывает объектам некоторый смысл, т.е. объявляет их "имеющими" некоторую информацию. В этом случае, информация субъектив на и существует только в человеческом сознании, а в информационных процессах участвуют объектив ные (не зависящие от восприятия человека) сигналы, которым мы можем приписывать смысл более или менее произвольно.

В настоящее время обе эти точки зрения имеют как сторонников так и противников. Однако противо положность взглядов на сущность информации не влияет на единство подходов к изучению свойств ин формационных сигналов, их проявлений в информационных процессах и возможность автоматизации этих процессов с помощью средств вычислительной техники.

5 ОСНОВНЫЕ ПОДХОДЫ К ОПРЕДЕЛЕНИЮ ПОНЯТИЯ "ИНФОРМАЦИЯ" Информация – от латинского informatio – сведения, разъяснения, изложение.

Однозначно определить, что же такое информация так же невозможно, как невозможно это сделать для понятий "время", "энергия", "качество" и пр. Сравните следующие определения понятия "информа ция" и определите, какие общие свойства в них отмечаются и в чем состоят различия.

1 Наиболее общим философским определением является следующее: информация – это отра женное разнообразие, возникающее в результате взаимодействия объектов.

Мы привыкли к тому, что мир вокруг нас изменчив, мы и замечаем его именно в процессе изменения, т.е. информация возникает, когда нарушается однообразие и это нарушение каким-то образом отражается, проявляет себя в сигналах.

2 Смысл чего-либо у человека часто ассоциируется с упорядоченностью, организованностью. Роль "смысла" может играть структура, способ взаимосвязи. Это отражено в следующем определении: ин формация – это атрибут материи, выступающий в пассивной форме как отражение организованно сти (дезорганизованности) материи, а в активной форме как средство организации (дезорганизации) материи.

3 Под информацией в быту (житейский аспект) понимают сведения об окружающем мире и про текающих в нем процессах, воспринимаемые человеком или специальными устройствами (С.И.Ожегов.

Толковый словарь русского языка). Чтобы человек воспринимал эти сведения как информацию, они должны обладать новизной.

4 В теории связи под информацией принято понимать любую последовательность сигналов, ко торая хранится, передается или обрабатывается с помощью технических средств, не учитывая их смысл.

5 В кибернетике под информацией понимается только та часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы.

6 Под информацией в теории информации понимают не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность. Информация – это снятая неопределенность.

7 Под информацией в документалистике понимают все то, что так или иначе зафиксировано в знаковой форме в виде документов.

8 В информатике информацию рассматривают как продукт взаимодействия зарегистрированных сигналов – данных и методов их обработки, адекватных решаемой задаче.

Поясним это определение, наиболее важное для курса информатики.

Все физические объекты находятся в состоянии непрерывного движения и изменения, которые со провождаются обменом энергии и переходом ее из одной формы в другую. Все виды энергообмена со провождаются появлением сигналов. При взаимодействии сигналов с физическими объектами в послед них возникают определенные изменения свойств. Это явление называется регистрацией сигналов. Та кие изменения можно наблюдать, измерять или фиксировать разными способами, при этом образуются новые сигналы – данные. Но мало зарегистрировать сигналы и получить данные – надо знать, что и как с этими данными можно делать, т.е. необходимо владеть методами обработки данных. Причем в каж дом конкретном случае из всего многообразия методов обработки данных необходимо выбирать те, ко торые помогут решить стоящую перед человеком задачу.

ПРИМЕР 1. Вы хотите узнать, который час. Вы смотрите на часы и видите лишь положение стрелок относительно делений на циферблате – это зарегистрированный сигнал, который для вас является ис ходными данными. Эти данные могут стать информацией для вас только при наличии соответствую щего метода обработки. В данном случае методы обработки данных включают в себя знание цены де ления шкалы (5 минут или 1 час), арифметические правила умножения и сложения и пр. Применение этих методов к данным о положении стрелки позволит вам получить информацию о текущем времени.

ПРИМЕР 2. Все файлы, хранящиеся в памяти компьютера записаны в двоичном коде. Но если Вы в текстовом редакторе откроете файл, созданный в графическом редакторе, то в лучшем случае увидите на экране набор малопонятных символов. Методы обработки двоичных кодов в этих программных средствах различны. Только применение соответствующих методов обработки (в нашем случае – пра вильный выбор программного средства) позволит Вам увидеть, какой рисунок содержится в файле.

6 НОСИТЕЛИ ИНФОРМАЦИИ. ВИДЫ И СВОЙСТВА ИНФОРМАЦИИ Информация всегда связана с материальным носителем. Носитель информации – среда для записи и хранения информации. Носителем информации может быть любой материальный предмет (бумага, камень, стена, поверхность дискеты), волны различной природы (акустическая – звук, электромагнитная – свет, радиоволна, гравитационная – давление, притяжение), особые состояния вещества (концентра ция молекул в жидком растворе, температура и давление газа, расположение молекул в кристалле про цессора и др.).

Способ передачи информации – сигнал.

Информационный сигнал – физический процесс, имеющий для человека или технического устрой ства информационное значение. Он может быть непрерывным (аналоговым) или дискретным.

Аналоговый сигнал – сигнал, непрерывно изменяющийся по амплитуде и во времени.

Сигнал называется дискретным, если он может принимать лишь конечное число значений в опреде ленный период времени.

В реальной жизни мы чаще всего воспринимаем непрерывные сигналы. Даже речь человека по сути представляет собой непрерывный сигнал. В этом легко убедиться, если вспомнить, что речь на незнакомом языке воспринимается слитно, в ней трудно выделить отдельные слова. Но легче обрабатывать дискретные сигналы. Благодаря сложившейся с детства привычке, мы выделяем в сигналах, непрерывно поступающих к нам из внешнего мира, отдельные элементы: лица и облака, слова и музыкальные фразы.

Важно: аналоговые сигналы всегда могут быть представлены в дискретном виде, например, в виде последовательности чисел. Процесс представления какой-либо величины в виде последовательного ря да ее отдельных (дискретных) значений называют дискретизацией.

Вычислительная техника может работать как с аналоговыми, так и с дискретными (цифровыми) сигналами. Соответственно, существуют аналоговые вычислительные машины (АВМ) и цифровые вы числительные машины (ЦВМ), причем последние получили значительно большее распространение.

Виды информации:

– по способу восприятия: визуальная, аудиальная, тактильная, вкусовая, обонятельная;

– по общественному значению:

– личная – это знания, опыт, интуиция, умения, эмоции, наследственная память конкретного чело века;

– специальная, значимая для определенной группы людей: научная, производственная, техниче ская, управленческая;

– общественная, значимая для большинства членов общества: общественно-политическая, науч но-популярная (научно осмысленный опыт всего человечества, исторические, культурные и националь ные традиции и др.), обыденная (которой мы обмениваемся в процессе повседневного общения), эсте тическая (изобразительное искусство, скульптура, музыка, театр и др.).

– по сфере применения информации (экономическая, географическая, социологиче ская и пр.);

– по характеру источников информации (первичная, вторичная, обобщающая и пр.);

Существует выделение видов информации и по другим основаниям, но в информатике наиболее важным является разделение информации п о ф о р м е п р е д с т а в л е н и я, а именно:

– текстовая, – числовая, – графическая, – звуковая и их всевозможные комбинации.

Для каждого из видов информации существуют особые методы кодирования, специальные про граммные средства (текстовые, графические, звуковые редакторы, электронные таблицы и т.п.) и специ альные устройства (клавиатура для ввода текстовой и числовой информации, сканер для ввода графики и т.п.).

В настоящее время основной в вычислительной технике становится мультимедийная (многосредо вая, комбинированная) форма представления информации. Цветная графика сочетается со звуком и тек стом, числовые расчеты сопровождаются деловой графикой, текст – движущимися видеоизображением и трехмерными образами.

Информация нам нужна для того, чтобы ориентироваться в окружающей обстановке и принимать правильные решения. Но любая ли информация помогает нам в этом? Знание свойств информации мо жет помочь человеку оценить в каждом конкретном случае насколько решения, принятые на основе имеющейся информации, могут быть верными.

1 Информация объективна, если она не зависит от чьего-либо мнения, суждения. Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Но, отражаясь в сознании конкретного человека, информация перестает быть объективной, так как преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знания, пристрастий кон кретного субъекта.

2 Информация достоверна, если она отражает истинное положение дел.

Недостоверной информация может быть по следующим причинам:

– преднамеренное искажение (дезинформация);

– искажение в результате воздействия помех ("испорченный телефон");

– в случае, когда значение реального факта приуменьшается или преувеличивается (слухи, "рыбац кие истории", реклама, политические дебаты).

3 Информация полна, если ее достаточно для понимания и принятия решения.

Неполная информация может привести к ошибочному выводу или решению. Не зря русская посло вица гласит: "Недоученный хуже неученого".

Избыток информации может быть также вреден при принятии решения, как и ее недостаток, по скольку для анализа и обработки дополнительной информации требуется время. А время для человека – один из самых дефицитных и дорогостоящих "ресурсов" его жизни, не говоря уже об экстремальных ситуациях, когда от быстроты принятия решения может зависеть очень многое.

4 Информация актуальна (своевременна), если она важна, существенна для настоящего времени.

Только вовремя полученная информация может принести необходимую пользу.

Неактуальной информация может быть по трем причинам, она может быть:

• устаревшей (прошлогодняя газета);

• преждевременной (прогноз погоды на лето, данный в январе);

• незначимой, ненужной (например, сообщение о том, что в Италии снижены цены на проезд в транспорте на 5 %).

5 Информация может быть полезной или бесполезной (ценность информации).

Но, так как четкой границы между этими понятиями нет, то следует говорить о степени полезности применительно к нуждам конкретных людей. Полезность информации оценивается по тем задачам, ко торые мы можем решить с ее помощью. Оценка полезности информации всегда субъективна. То, что полезно для одного человека, может быть совершенно бесполезно для другого.

6 Информация понятна, если она выражена на языке, доступном для получателя.

Социальная информация обладает еще и дополнительными свойствами, а именно:

7 Имеет семантический (смысловой) характер. Как правило, содержание, смысл для человека важнее, чем форма представления информации.

8 Имеет языковую природу. Одно и то же содержание может быть выражено на разных естественных (разговорных) либо специальных языках.

9 С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информа ции (кумуляция – от латинского cumulatio – увеличение, скопление).

10 Свойство старения информации заключается в уменьшении ее ценности с течением времени.

Старит информацию не само время, а появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю информацию. Научно-техническая информация ста реет быстрее, эстетическая (произведения искусства) – медленнее.

11 Логичность, компактность, удобная форма представления информации облегчает понимание и усвоение информации.

Пример. Грамотное, доказательное выступление, когда оратор логично переходит от одного вопро са (факта, предположения) к другому, воспринимается лучше, чем сумбурная речь. Использование схем нередко лучше проясняет принцип работы технического устройства, чем многостраничные описания.

12 При восприятии и понимании текстов человеком важным свойством информации оказывается ее определенность (однозначность).

Пример. "И вскрикнул внезапно ужаленный князь!" Внезапно вскрикнул или внезапно ужаленный?

"Сережа встретил Свету на поляне с цветами". С цветами был Сережа или с цветами была Света? А, может быть, цветы росли на поляне?

7 ИЗМЕРЕНИЕ ИНФОРМАЦИИ Прежде, чем измерять значение какой-либо физической величины, надо ввести единицу из мерения. У информации тоже есть такая единица – бит, но смысл ее различен при измерении ин формации в рамках разных подходов к определению понятия "информация".

I ПОДХОД. Н е и з м е р я е м о с т ь и н ф о р м а ц и и в б ы т у (информация как новизна для получателя).

Вы получили некоторое сообщение, например, прочитали статью в журнале. В этом сообще нии содержится какое-то количество новых для Вас сведений. Как оценить, сколько информации Вы получили? Другими словами, как измерить информацию? Можно ли сказать, что чем больше статья, тем больше информации она содержит?

Разные люди, получившие одно и то же сообщение, по-разному оценивают его новизну и ин формационную емкость. Это происходит оттого, что знания людей о событиях, явлениях, о кото рых идет речь в сообщении, до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, могут сказать, что информации не получили вовсе. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя. В таком случае, количество информации в одном и том же сообщении должно определяться отдельно для каждого получателя, т.е. иметь субъективный характер. Но субъективные вещи не поддаются сравнению и анализу, для их изме рения трудно выбрать одну общую для всех единицу измерения. Таким образом, с точки зрения информации как новизны, мы не можем однозначно и объективно оценить количество информа ции, содержащейся даже в простом сообщении. Что же тогда говорить об измерении количества информации, содержащейся в научном открытии, новом музыкальном стиле, новой теории обще ственного развития. Поэтому, когда информация рассматривается как новизна сообщения для получателя, вопрос об измерении количества информации не ставится.

II ПОДХОД – т е х н и ч е с к и й или объемный.

В технике, где информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, сигналов, часто используют простой способ определения количества информации, который может быть назван объемным. Он основан на подсчете числа символов в сообщении, т.е. связан только с длиной сообщения и не учитывает его содержания.

Длина сообщения зависит от числа знаков, употребляемых для записи сообщения. Например, слово "мир" в русском алфавите записывается тремя знаками, в английском – пятью (peace), а в ДКОИ-8 (двоичный код обмена информацией длиной 8) – двадцатью четырьмя битами (111011011110100111110010).

В вычислительной технике применяются две стандартные единицы измерения: бит (англ.

binary digit – двоичная цифра) и байт (byte) и производные от них единицы – килобайт (Кб), мега байт (Мб), гигабайт (Гб), тетрабайт (Тб).

1 бит – минимально возможный хранимый и передаваемый сигнал. Условно два его возмож ных состояния обозначаются 0 и 1. В действительности эти состояния могут иметь различную фи зическую природу: для оперативной памяти это наличие или отсутствие напряжения в электрон ной схеме;

для компакт-дисков это выступ или впадина на поверхности и т.д.

Исторически сложилось так, что 1 байт равен 8 битам. Именно восемью битами кодировался один символ в программах для первых ЭВМ.

Обычно приставка "кило" означает тысячу, а приставка "мега" – миллион, но в вычисли тельной технике все "привязывается" к принятой двоичной системе кодирования.

В силу этого один килобайт равен не тысяче байт, а 210 = 1024 байт.

Аналогично, 1 Мб = 210 Кб = 1024 Кб = 220 байт = 1 048 576 байт.

1 Гб = 210 Мб = 220 Кб = 230 байт = 1 073 741 824 байт.

III ПОДХОД – в е р о я т н о с т н ы й. Измерение информации в теории информации, когда ин формация определяется как снятая неопределенность.

Получение информации (ее увеличение) одновременно означает увеличение знания, что, в свою очередь, означает уменьшение незнания или информационной неопределенности. Говорят, что сообщение, которое уменьшает неопределенность, существовавшую до его получения, ровно в 2 раза, несет 1 бит информации. По сути, 1 бит информации соответствует выбору одного из двух равновероятных сообщений.

ПРИМЕРЫ.

Книга лежит на одной из двух полок – верхней или нижней. Сообщение о том, что книга ле жит на верхней полке, уменьшает неопределенность ровно вдвое и несет 1 бит информации.

Сообщение о том, как упала монета после броска – "орлом" или "решкой", несет один бит информации.

В соревновании участвуют 4 команды. Сообщение о том, что третья команда набрала боль шее количество очков, уменьшает первоначальную неопределенность ровно в четыре раза (дваж ды по два) и несет два бита информации.

Очень приближенно можно считать, что количество информации в сообщении о каком-то со бытии совпадает с количеством вопросов, которые необходимо задать и ответом на которые мо гут быть лишь "да" или "нет", чтобы получить ту же информацию. Причем событие, о котором идет речь, должно иметь равновероятные исходы. Именно поэтому, если число равновероятных исходов события, о котором идет речь в сообщении, кратно степени числа 2 (4 = 22, 8 = 23, 32 = 25), то сообщение несет целое количество бит информации. Но в реальной практике могут встречать ся самые разные ситуации. Например, сообщение о том, что на светофоре красный сигнал, несет в себе информации больше, чем бит.

С точки зрения на информацию как на снятую неопределенность количество информации зави сит от вероятности получения данного сообщения. Причем, чем больше вероятность события, тем меньше количество информации в сообщении о таком событии. Иными словами, количество ин формации в сообщении о каком-то событии зависит от вероятности свершения данного события.

Научный подход к оценке сообщений был предложен еще в 1928 г.

Р. Хартли. Расчетная формула имеет вид:

I = log2 N или 2I = N, где N – количество равновероятных событий (число возможных выборов);

I – количество инфор мации.

Если N = 2 (выбор из двух возможностей), то I = 1 бит.

Бит выбран в качестве единицы количества информации потому, что принято считать, что двумя двоичными словами исходной длины k или словом длины 2k можно передать в 2 раза больше информации, чем одним исходным словом. Число возможных равновероятных выборов при этом увеличивается в 2k раз, тогда как I удваивается.

Иногда формула Хартли записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность p = 1 / N, то N = 1 / p и формула имеет вид I = log2 (1/p) = – log2 p.

Познакомимся с более общим случаем вычисления количества информации в сообщении об одном из N, но уже неравновероятных событий. Этот подход был предложен К. Шенноном в г.

Пусть имеется текст, содержащий тысячу букв. Буква "о" в тексте встречается примерно 90 раз, бу ква "р" ~ 40 раз, буква "ф" ~ 2 раза, буква "а" ~ 200 раз. Поделив 200 на 1000, мы получим величину 0.2, которая представляет собой среднюю частоту, с которой в рассматриваемом тексте встречается буква "а". Вероятность появления буквы "а" в тексте (pa) можем считать приблизительно равной 0,2. Анало гично, pр = 0,04, pф = 0,002, ро = 0,09.

Далее поступаем согласно К. Шеннону. Берем двоичный логарифм от величины 0,2 и называем то, что получилось, количеством информации, которую переносит одна единственная буква "а" в рассмат риваемом тексте. Точно такую же операцию проделаем для каждой буквы. Тогда количество собствен ной информации, переносимой одной буквой равно hi = log2 (1/pi) = – log2 pi, где pi – вероятность появления в сообщении i-го символа алфавита.

Удобнее в качестве меры количества информации пользоваться не значением hi, а средним значени ем количества информации, приходящейся на один символ алфавита H = pi hi = – pi log2 pi Значение Н достигает максимума при равновероятных событиях, т.е. при равенстве всех pi pi = 1 / N.

В этом случае формула Шеннона превращается в формулу Хартли.

Интересный факт.

На памятнике немецкому ученому Л. Больцману высечена формула, выведенная в 1877 г. и связы вающая вероятность состояния физической системы и величину энтропии этой системы. Энтропия (греч. en – в, внутрь;

trope – превращение, буквально смысловой перевод: то, что внутри, неопределен но) – физическая величина, характеризующая тепловое состояние тела или системы, мера внутренней неупорядоченности системы. Так вот, формула для энтропии Больцмана совпадает с формулой, пред ложенной Шенноном для среднего количества информации, приходящейся на один символ в сообще нии. Совпадение это произвело столь сильное впечатление, что Шеннон назвал количество информации негэнтропией. С тех пор слово "энтропия" стало чуть ли не антонимом слова "информация".

Чем больше энтропия системы, тем больше степень ее неопределенности. Поступающее сообщение полностью или частично снимает эту неопределенность. Следовательно, количество информации мож но измерять тем, насколько понизилась энтропия системы после поступления сообщения. Таким обра зом, за меру количества информации принимается та же энтропия, но с обратным знаком. Уменьшая неопределенность, мы получаем информацию, в этом весь смысл научного познания.

Тема 2 ОБЩАЯ ХАРАКТЕРИСТИКА ИНФОРМАЦИОННЫХ ПРОЦЕССОВ Данная тема включает в себя следующие разделы:

1 Общая характеристика информационных процессов 2 Кодирование информации 3 Сбор информации 4 Хранение информации 5 Передача информации 6 Обработка информации 7 Защита информации 1 ОБЩАЯ ХАРАКТЕРИСТИКА ИНФОРМАЦИОННЫХ ПРОЦЕССОВ Информация не существует сама по себе, она проявляется в информационных процессах, а информа ционные процессы всегда протекают в каких-либо системах.

Информационный процесс (ИП) определяется как совокупность последовательных действий (опе раций), производимых над информацией (в виде данных, сведений, фактов, идей, гипотез, теорий и пр.), для получения какого-либо результата (достижения цели).

Информационные процессы могут быть целенаправленными или стихийными, организованными или хаотичными, детерминированными или вероятностными, но какую бы мы не рассматривали систе му, в ней всегда присутствуют информационные процессы, и какой бы информационный процесс мы не рассматривали, он всегда реализуется в рамках какой-либо системы – биологической, социальной, тех нической, социотехнической. В зависимости от того, какого рода информация является предметом ин формационного процесса и кто является его субъектом (техническое устройство, человек, коллектив, общество в целом), можно говорить о глобальных информационных процессах, или макропроцесссах и локальных информационных процессах, или микропроцессах. Так, процесс познания, распространение информации посредством СМИ, информационные войны, организация архивного хранения информа ции – это глобальные ИП, а посимвольное сравнение данных, двоичное кодирование текста, запись порции информации на носитель – локальные ИП.

Наиболее обобщенными информационными процессами являются три процесса: сбор, преобразо вание, использование информации. Каждый из этих процессов распадается, в свою очередь, на ряд процессов, причем некоторые из них являются общими, т.е. могут входить в каждый из выделенных "укрупненных" процессов (рис. 2).

Рис. 2 Схема взаимосвязи информационных процессов Человек всегда стремится автоматизировать выполнение рутинных операций и операций, тре бующих постоянного внимания и точности. То же справедливо и по отношению к информационным процессам.

Универсальными средствами для автоматизированного выполнения информационных процессов в настоящее время являются: компьютер, вычислительные системы и сети.

2 КОДИРОВАНИЕ ИНФОРМАЦИИ Информационный процесс кодирования информации встречается в нашей жизни на каждом шагу.

Любое общение между людьми происходит именно благодаря тому, что они научились выражать свои образы, чувства и эмоции с помощью специально предназначенных для этого знаков – звуков, жестов, букв и пр.

Одно и то же сообщение можно закодировать разными способами, т.е. выразить на разном язы ках. В процессе развития человеческого общества люди выработали большое число языков кодирова ния. К ним относятся:

• разговорные языки (русский, английский, хинди и другие, всего около 5000);

• язык мимики и жестов;

• язык рисунков и чертежей;

• языки науки (язык математики, химии и т.д.);

• язык искусства (музыки, живописи, скульптуры);

• специальные языки (эсперанто, морской семафор, азбука Морзе, азбука Брайля для слепых и т.д.) В специальных языках особо выделим языки программирования.

Программирование – кодирование информации на языке, "понятном" компьютеру.

В вычислительной технике кодирование используется при хранении, передаче информации, пред ставлении ее на носителе. Кодирование информации можно рассматривать как один из способов ее обработки (преобразования).

Дадим определения основных понятий.

Кодированием называется процесс преобразования одного набора знаков в другой набор знаков.

Кодом называется правило для преобразования одного набора знаков в другой набор знаков.

Знак – это элемент конечного множества отличных друг от друга элементов, с помощью кото рых кодируется сообщение.

Набор знаков, в котором определен порядок их следования, называется алфавитом.

Алфавит, состоящий из двух знаков, называется двоичным алфавитом.

В вычислительной технике в настоящее время широко используется двоичное кодирование с алфа витом {0,1} (рис. 3). Наиболее распространенными кодами являются ASCII (American standart code for information interchange – американский стандартный код для обмена информацией), ДКОИ-8 (двоичный код обмена информации), Win1251 или СР1251 (code page), Unicode.

Длиной кода называется то количество знаков кодирующего алфавита, которое используется при кодировании одного знака кодируемого сообщения.

Код может быть постоянной и переменной длины.

Рис. 3 Пример универсального кодирования с помощью алфавита {0,1} В естественных языках используются в основном коды переменой длины (слова русского языка бы вают длиной в 1, 2, 3 и т.д. букв);

в технике чаще используются коды постоянной длины. Так длина ко да ASCII 8 бит или 1 байт, длина кода Unicode 16 бит или 2 байта.

Если длина кода равняется n, то алфавитом, состоящим из k знаков, можно закодировать М = kn различных состояний.

С помощью двоичного алфавита (k = 2) в ASCII (n = 8) таблица кодировки включает 28 = 256 сим волов, в Unicode (n = 16) таблица кодировки включает 216 = 65536 символов.

Чтобы закодировать М различных состояний с постоянной длиной кода, используя алфавит из k знаков, длина кода должна быть не менее n = [ logk M +1].

Универсальный способ кодирования Пусть кодирующий алфавит состоит из k упорядоченных знаков. Тогда при использовании кода длины 1 мы можем закодировать k различных знаков исходного сообщения.

Код длины n (n > 1) будем строить так: в конце каждого кода длины n – 1 дописываем по одному все знаки кодирующего алфавита. Таким образом, одна кодовая последо вательность длины n – 1 порождает k кодовых последовательностей длины n.

3 СБОР ИНФОРМАЦИИ Поиск информации – один из важных информационных процессов. От того, как он организован, во многом зависит своевременность и качество принимаемых решений.

В широком плане является основой познавательной деятельности человека во всех ее проявлениях:

в удовлетворении любопытства, путешествиях, научной работе, чтении и т.п. В более узком смысле означает систематические процедуры поиска в организованных хранилищах информации: библиоте ках, справочниках, картотеках, электронных каталогах, базах данных.

Методы поиска информации можно разделить на те, которые осуществляются самим человеком, и осуществляемые техническими устройствами. К первым относятся: непосредственное наблюдение, общение со специалистами, чтение соответствующей литературы, просмотр телепрограмм, прослу шивание радиопередач, аудиокассет, работа в библиотеках, архивах, обращение с запросом к инфор мационным системам, базам и банкам данных.

Поиск информации, осуществляемый компьютерными программами, всегда идет в соответствии с некоторым запросом. Им может быть набор ключевых слов при поиске информации в Интернет, шаблон имени файла при поиске нужного файла на диске, значения некоторых реквизитов при поиске документов в справочно-правовых системах и т.п. Среди основных методов поиска можно выделить:

посимвольное (побитное) сравнение на совпадение, сравнение основы слов (без учета суффиксов, окон чаний, порядка слов), расширенный поиск с использованием словаря синонимов, контекстный поиск.

Применение разнообразных методов поиска поможет собрать более полную информацию и повы сит вероятность принятия правильного решения.

В процессе поиска может встретиться самая разная информация. Любую информацию человек привык оценивать по степени ее полезности, актуальности и достоверности. Оценивание явно или не явно ведется в соответствии с некоторыми заранее определенными критериями отбора.

В процессе отбора информации она может проходить процедуры сравнения, регистрации, измерения величин и их представления, оценки свойств в соответствии с заданными критериями и др. После оценки одни из полученных сведений могут быть отброшены как ненужные, другие, наоборот, остав лены на долгое хранение, т.е. процесс поиска информации практически всегда сопровождается ее от бором. Вместе это называют процессом сбора информации.

Сбор информации всегда осуществляется с определенной целью, которая во многом определяет выбор методов поиска и критериев отбора найденной информации.

4 ХРАНЕНИЕ ИНФОРМАЦИИ Хранение информации – процесс такой же древний, как и жизнь человеческой цивилизации. Он имеет огромное значение для обеспечения поступательного развития человеческого общества (да и любой системы), многократного использования информации, передачи накапливаемого знания после дующим поколениям.

Уже в древности человек столкнулся с необходимостью хранения информации. Примерами тому служат зарубки на деревьях, чтобы не заблудиться во время охоты;

счет предметов с помощью ка мешков, узелков;

изображение животных и эпизодов охоты на стенах пещер. Человеческое общество способно бережно хранить информацию и передавать ее от поколения к поколению. На протяжении всей истории знания и жизненный опыт отдельных людей накапливаются. По современным представ лениям, чем больше информации накоплено и используется в обществе, тем выше уровень его разви тия. Накопление информации является основой развития общества. Когда объем накапливаемой ин формации возрастает настолько, что ее становится просто невозможно хранить в памяти, человек начинает прибегать к помощи различного рода вспомогательных средств С рождением письменности возникло специальное средство фиксирования и распространения мысли в пространстве и во времени. Родилась документированная информация – рукописи и рукопис ные книги, появились своеобразные информационно-накопительные центры – древние библиотеки и ар хивы. Постепенно письменный документ стал и орудием управления (указы, приказы, законы).

Следующим информационным скачком явилось книгопечатание.

С его возникновением наибольший объем информации стал храниться в различных печатных изданиях, и для ее получения человек обращается в места их хранения (библиотеки, архивы и пр.).

В настоящее время мы являемся свидетелями быстрого развития новых – автоматизированных – методов хранения информации с помощью электронных средств. Компьютер и средства телекомму никации предназначены для компактного хранения информации с возможностью быстрого доступа к ней.

Информация, предназначенная для хранения и передачи, как правило, представлена в форме доку мента. Под документом понимается объект на любом материальном носителе, где имеется инфор мация, предназначенная для распространения в пространстве и времени (от лат. dokumentum – свиде тельство. Первоначально это слово обозначало письменное подтверждение правовых отношений и со бытий). Основное назначение документа заключается в использовании его в качестве источника ин формации при решении различных проблем обучения, управления, науки, техники, производства, соци альных отношений.

Одной из процедур хранения информации является ее накопление. Оно может быть пассивным и активным.

При пассивном накоплении поступающая информация просто "складируется", при этом принима ются меры для обеспечения ее сохранности и повторного обращения к ней (считывания). Например, запись звуковой информации на магнитофонную ленту;

стенографирование выступления;

размещение документов в архиве.

При активном накоплении происходит определенная обработка поступающей информации, имею щая много градаций, но в целом направленная на обогащение знания получателя информации. Напри мер, систематизация и обобщение документов, поступивших на хранение, перевод содержания доку ментов в другую форму, перенесение документов на другие носители совместно с процедурами сжа тия данных, обеспечения защитными кодами и т.п.

Важно помнить, что хранение очень больших объемов информации оправдано только при условии, если поиск нужной информации можно осуществить достаточно быстро, а сведения получить в дос тупной форме. Иными словами, информация хранится только для того, чтобы впоследствии ее можно было легко отыскать, а возможность поиска закладывается при определении способа хранения ин формации и доступа к ней. Таким образом, первый вопрос, на который необходимо ответить при ор ганизации любого хранилища информации – как ее потом там искать.

Информационно-поисковая система (ИПС) – это хранилище информации, снабженное процеду рами ввода, поиска, размещения и выдачи информации. Наличие таких процедур – главная особенность информационных систем, отличающая их от простых скоплений информационных материалов (рис.

4).

Например, личная библиотека, в которой может ориентироваться только ее владелец, информа ционной системой не является. В публичных же библиотеках порядок размещения книг всегда строго определенный. Благодаря ему поиск и выдача книг, а также размещение новых поступлений представ ляет собой стандартные, формализованные процедуры. То же самое справедливо и для компьютерных ИПС.

Все хранимые в ИПС документы индексируются каким-либо образом. Каждому документу (ста тье, протоколу, видеокассете) присваивается индивидуальный код, составляющий поисковый образ документа. Поиск в хранилищах идет не по самим документам, а по их поисковым образам, которые могут включать в себя:

• название документа;

• время и место создания;

• фамилии авторов или название организации, создавшей документ;

• тематические разделы, к которым можно отнести документ по его содержанию;

• информацию о местонахождении документа в хранилище и многое другое.

Например, файловая система компьютера – это тоже информационно-поисковая система. Поис ковый образ файла включает в себя полное имя файла (имя дисковода, имена каталогов и подкатало гов, собственное имя файла, расширение), дату и время создания, размер файла, его атрибуты.

Рис. 4 Структурно-функциональная схема информационно-поисковой системы 5 ПЕРЕДАЧА ИНФОРМАЦИИ Хранение информации необходимо для распространения ее во времени, а ее распространение в пространстве происходит в процессе передачи информации. Практически любая деятельность людей связана с общением, а общение невозможно без передачи информации.

В процессе передачи информации обязательно участвуют источник и получатель информации:

первый передает информацию, второй ее принимает. Между ними действует канал передачи информа ции – канал связи (рис. 5). Передача информации возможна с помощью любого языка кодирования ин формации, понятного как источнику, так и получателю.

Рис. 5 Процесс передачи информации Передача информации – это реальный физический процесс, протекающий в среде, разделяющей источник и получатель. Передаваемая информация обладает определенным строением, которое чаще всего выглядит как последовательность сигналов, каждый из которых переносит элементарную пор цию информации. В теории связи эта последовательность сигналов называется сообщением.

В процессе передачи информация может теряться и искажаться: искажение звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при пе редаче по телеграфу. Эти помехи, или, как их называют специалисты, шумы, изменяют сообщение.

Поэтому при организации автоматизированной передачи сообщений необходимо особо заботиться об обеспечении защиты от помех, о проверке соответствия полученного сообщения переданному.

В теории информации установлена связь между способом кодирования передаваемых сообщений, скоростью их передачи по каналам связи и вероятностью искажения передаваемой информации. Еще в сороковых годах ХХ в. К. Шеннон доказал, что при любых помехах и шумах можно обеспечить переда чу информации без потерь.

Первая теорема Шеннона говорит о том, что для передачи любого сообщения с помощью канала без помех, существует код минимальной длины, такой, что сообщение кодируется с минимальной из быточностью.

Вторая теорема Шеннона о кодировании при наличии шумов гласит, что всегда существует способ кодирования, при котором сообщения будут передаваться с какой угодно высокой достоверно стью (со сколь угодно малой вероятностью ошибок), если только скорость передачи не превышает пропускной способности канала связи.

В процессе передачи сигналов важная роль принадлежит каналам связи и их свойствам.

Физическая природа каналов передачи информации может быть самая разнообразная: воздух и вода, проводящие акустические волны (звуковые сигналы) и радиоволны (радиосигналы), токопроводя щие среды (система металлических проводов), оптоволокнистые среды.

Каналы связи делятся на симплексные (с передачей информации только в одну сторону (телевиде ние)) и дуплексные, по которым возможно передавать информацию в оба направления (телефон, теле граф). По каналу могут одновременно передаваться несколько сообщений. Каждое из этих сообщений выделяется (отделяется от других) с помощью специальных фильтров. Например, возможна фильт рация по частоте передаваемых сообщений, как это делается в радиоканалах.

Каналы связи характеризуются пропускной способностью и помехозащищенностью.

Пропускная способность канала определяется максимальным количеством символов, передавае мых по нему в отсутствие помех. Эта характеристика зависит от физических свойств канала, в ча стности, его разрядности.

Для повышения помехозащищенности канала используются специальные методы передачи сооб щений, уменьшающие влияние шумов. Например, вводят лишние (избыточные) символы. Эти символы не несут действительного содержания, но используются для контроля правильности сообщения при получении.

Задача обнаружения ошибки может быть решена довольно просто. Достаточно просто переда вать каждую букву сообщения дважды. Например, при необходимости передачи слова "гора" можно передать "ггоорраа". При получении искаженного сообщения, например, "гготрраа" с большой вероят ностью можно догадаться, каким было исходное слово. Конечно, возможно такое искажение, кото рое делает неоднозначным интерпретацию полученного сообщения, например, "гпоорраа", "ггоорреа" или "кгоорраа". Однако цель такого способа кодирования состоит не в исправлении ошибки, а в фикса ции факта искажения и повторной передаче части сообщения в этом случае. Недостаток данного способа обеспечения надежности состоит в том, что избыточность кода оказывается очень боль шой.

Поскольку ошибка должна быть только обнаружена, можно предложить другой способ кодиро вания. Пусть имеется цепочка информационных бит длиной k0. Добавим к ним еще один бит, значение которого определяется тем, что новая кодовая цепочка из k0+1 бита должна содержать четное ко личество единиц – по этой причине такой контрольный бит называется битом четности. Например, для информационного байта 01010100 бит четности будет иметь значение 1, а для байта бит четности равен 0. В случае одиночной ошибки передачи число 1 перестает быть четным, что и служит свидетельством сбоя. Например, если получена цепочка 110110111 (контрольный бит выделен подчеркиванием), ясно, что передача произведена с ошибкой, поскольку общее количество единиц равно 7, т.е. нечетно. В каком бите содержится ошибка при таком способе кодирования установить нельзя.

Избыточность кода в данном случае, очевидно, равна k0 + L =.

k На первый взгляд кажется, что путем увеличения k0 можно сколь угодно приближать избыточ ность к ее минимальному значению (Lmin = 1). Однако с ростом k0, во-первых, растет вероятность парной ошибки, которая контрольным битом не отслеживается;

во-вторых, при обнаружении ошиб ки потребуется заново передавать много информации.

В 1948 г. Р. Хеммингом был предложен принцип кодирования информации, которое позволяет не только обнаружить существование ошибки, но и локализовать (т.е. определить, в каком бите она на ходится) и, естественно, ее устранить. Подобные коды, исправляющие одиночную ошибку, стали на зываться кодами Хемминга.

Основная идея состоит в добавлении к информационным битам не одного, а нескольких битов четности, каждый из которых контролирует определенные информационные биты. Если пронумеро вать все биты передаваемые биты, начиная с 1 слева направо (стоит напомнить, что информацион ные биты нумеруются с 0 и справа налево), то контрольными (проверочными) оказываются биты, но мера которых равны степеням числа 2, а все остальные являются информационными. Например, для 8 битного информационного кода контрольными окажутся биты с номерами 1, 2, 4 и 8:

Номера битов кода Хемминга 1 2 3 4 5 6 7 8 9 10 11 Передаваемые биты 0 0 0 1 1 1 0 1 1 1 0 Номера информа ционных битов 7 6 5 4 3 2 1 Номера контролируемых битов для каждого проверочного приведены в табл. 1. При этом в пере чень контролируемых битов входит и тот, в котором располагается проверочный. При этом состояние проверочного бита устанавливается таким образом, чтобы суммарное количество единиц в контроли руемых им битах было бы четным.

1 Проверочные и контролируемые биты передаваемого сообщения Про в.

Контролируемые биты би ты 1 1 3 5 7 9 11 13 15 17 19 21 … 2 2 3 6 7 10 11 14 15 18 19 22 … 4 4 5 6 7 12 13 14 15 20 21 22 … 8 8 9 10 11 12 13 14 15 24 25 26 … 16 16 17 18 19 20 21 22 23 24 25 26 … 32 32 33 34 35 36 37 38 39 40 41 42 … Пусть, например, вместо указанной выше последовательности пришла следующая (в 5-м бите 1 за менилась 0):

1 2 3 4 5 6 7 8 9 10 11 0 0 0 1 0 1 0 1 1 1 0 Бит 1 указывает на наличие ошибки в каком-либо бите с нечетным номером.

Бит 2 свидетельствует о том, что из них 3, 7 и 11 верны (т.е. ошибка в 5-м или 9-м бите).

Бит 4 указывает, что ошибка не в 9-м бите.

Таким образом, однозначно устанавливается, что ошибочным является 5-й бит – можно исправить его значение на противоположное и, тем самым, восстановить правильную последовательность.

Более детальное рассмотрение кодов Хемминга позволяет сформулировать простой алгоритм про верки и исправления передаваемой последовательности бит:

(a) произвести проверку всех битов четности;

(b) если все биты четности верны, то перейти к пункту (e);

(c) вычислить сумму номеров всех неправильных битов четности;

(d) инвертировать содержимое бита, номер которого равен сумме, найденной в пункте (c);

(e) исключить биты четности, передать правильный информационный код.

На рассмотренном выше примере легко убедиться в справедливости данного алгоритма.

Безусловно, данный способ кодирования требует увеличения объема памяти компьютера прибли зительно на одну треть при 16-битной длине машинного слова, однако, он позволяет автоматически исправлять одиночные ошибки.

6 ОБРАБОТКА ИНФОРМАЦИИ Человек выделяет в информации по крайней мере три компонента: смысл (семантика);

оформление (синтаксис);

личностная значимость (оценка, прагматика). Иными словами в любом сообщении можно выделить содержание, форму и наше отношение к сообщению.

Обработка (преобразование) информации — это процесс изменения формы представления инфор мации или ее содержания.

Как правило, обработка информации – это закономерный, целенаправленный, планомерный про цесс. Всегда существует цель обработки.

Процессы изменения формы представления информации часто сводятся к процессам ее кодирова ния и декодирования и проходят одновременно с процессами сбора и передачи информации.

Примеры изменения формы информации в результате обработки:

• специальное оборудование на метеостанции преобразует сигналы, полученные от метеозондов, в графики;

• данные анкет, полученные в результате психологических исследований, представляются в виде диаграмм;

• при сканировании рисунок преобразуется в последовательность двоичных цифр.

Процесс изменения содержания информации включает в себя такие процедуры, как численные расчеты, редактирование, упорядочивание, обобщение, систематизация и т.д.

Примеры изменения содержания информации в результате обработки:

• результатом обработки данных нескольких метеостанций выступает прогноз погоды;

• анализ данных психологических исследований позволяет дать обобщенную психологическую ха рактеристику группы "испытуемых" и рекомендации по улучшению психологического климата в этой группе;

• отсканированный текст первоначально представляется в виде рисунка (в соответствующем двоичном представлении). После его обработки программой оптического распознавания символов он преобразуется в "текстовые" коды.

Обрабатывать можно информацию любого вида и правила обработки могут быть самыми разно образными. Общая схема преобразования информации приведена на рис. 6.

Рис. 6 Процесс преобразования информации Нам не всегда известно, как, по каким правилам входная информация преобразовывается в выход ную. Систему, в которых наблюдателю доступны лишь входные и выходные величины, а структура и внутренние процессы неизвестны, называют черным ящиком (рис. 7).

Рис. 7 Схема преобразования информации по принципу "черного ящика" Не будет преувеличением сказать, что любой познаваемый объект всегда первоначально выступает для наблюдателя как "черный ящик".

Но чаще всего без знания правил преобразования невозможно достичь цели, ради которой инфор мация и обрабатывается. Если эти правила строго формализованы и имеется алгоритм их реализации, то можно построить устройство для автоматизированной обработки информации. Таким устройством в вычислительной технике является процессор (рис. 8).

Рис. 8 Схема обработки информации Обработка информации всегда происходит в некоторой внешней среде (обстановке), являющейся источником входной информации и потребителем выходной информации. Непосредственная перера ботка входной информации в выходную осуществляется процессором. При этом предполагается, что процессор располагает памятью.

Замечание. Обработка информации в общем случае приводит и к изменению состояния самого про цессора.

Процесс обработки информации в рамках данной схемы чаще всего сводится к следующим проце дурам:

• вычисление процессором значений выходных параметров как некоторой функции входных;

• накопление информации, т.е. изменение состояния памяти под воздействием входной информа ции;

• реализация причинной связи между входом и выходом процессора;

• взаимодействие процессора со средой, реакция на изменения обстановки;

• управление поведением всей системы в целом.

Обработка информации – это процесс, происходящий во времени.

В ряде случаев он должен подчиняться заданному темпу поступления входной информации и до пустимому пределу задержки в выработке информации на выходе. В этом случае говорят об обработке информации в реальном масштабе времени. Примером является управление работой машин и уст ройств, в том числе компьютера.

В других случаях время рассматривается как дискретная цепочка мгновенно происходящих собы тий. При этом важна лишь их последовательность, а не значение разделяющих события временных промежутков. Такой подход применяется обычно при обработке информации в моделировании.

Наиболее простой формой обработки информации является последовательная обработка, произво димая одним процессором, в котором в любой момент времени происходит не более одного события.

При наличии в системе нескольких процессоров, работающих одновременно, говорят о параллельной обработке информации.

Обработка информации является центральной процедурой в управлении любой системой. Трактов ка управления системой как процесса обработки информации является одним из основных принципов кибернетики.

Вычислительная техника в основном предназначена для автоматизированной обработки информа ции различного вида. К ней относятся: обработка запросов к базам данных, перекодирование информа ции, численные расчеты по формулам, аранжировка музыкальных произведений, синтез новых звуков, монтаж анимационных роликов и многое другое.

7 ЗАЩИТА ИНФОРМАЦИИ Человеку свойственно ошибаться. Любое техническое устройство также подвержено сбоям, полом кам, влиянию помех. Ошибка может произойти при выполнении любого информационного процесса.

Велика вероятность ошибки при кодировании информации, ее обработке и передаче. Результатом ошибки может стать потеря нужных данных, принятие ошибочного решения, аварийная ситуация. Чем больше информации передается и обрабатывается, тем труднее избежать ошибок. В обществе хранится, передается и обрабатывается огромное количество информации и отчасти поэтому современный мир очень хрупок, взаимосвязан и взаимозависим. Информация, циркулирующая в системах управления и связи, способна вызвать крупномасштабные аварии, военные конфликты, дезорганизацию деятельности научных центров и лабораторий, разорение банков и коммерческих организаций. Поэтому информацию нужно уметь защищать от искажения, потери, утечки, нелегального использования.

Наиболее распространенными причинами потери и искажения информации при работе за компью тером являются:

• сбои в работе программного обеспечения компьютера;

• помехи или потери на линиях связи;

• нарушения энергоснабжения компьютера;

• физическая порча носителей внешней памяти;

• ошибочные действия пользователя;

• преднамеренное желание причинить вред другому (вирусы, спам и т.п.).

Основные методы защиты можно соотнести и причинами потери и искажения информации (табл.

2).

2 Виды и методы защиты информации при работе с компьютером Виды защиты Методы защиты От сбоев оборудова- архивирование файлов (со сжатием ния или без);

резервирование файлов;

От случайной потери требование подтверждения перед или изменения ин- выполнением команд, изменяющих формации, храня- файлы;

щейся в компьютере установка специальных атрибутов документов и программ;

разграничение доступа пользовате лей к ресурсам системы;

возможность отмены неверного дей ствия или восстановления ошибочно удаленного файла;

От преднамеренного общие методы защиты информации;

искажения, ванда- профилактические меры;

лизма (компьютер- использование антивирусных про ных вирусов) грамм;

От несанкциониро- паролирование;

ванного (нелегально- шифрование;

го) доступа к ин- "электронные ключи";

формации, ее ис- совокупность административных и пользования, изме- правоохранительных мер.

нения, распростра- нения Антивирусные программы можно разделить на несколько видов: детекторы, доктора (фаги), реви зоры, фильтры и вакцины.

Программы-ДЕТЕКТОРЫ проверяют, имеется ли в проверяемых файлах специфические для из вестных вирусов комбинации байтов. Большинство детекторов могут обнаруживать только те вирусы, которые им известны. При обнаружении вируса на экран выводится специальное сообщение. Многие детекторы имеют режимы лечения или уничтожения зараженных файлов.

Программы-РЕВИЗОРЫ работают в два этапа. Вначале они запоминают сведения о состоянии про грамм и системных областей диска. После этого в любой момент с помощью программы-ревизора мож но сравнить текущее состояние программ и системных областей с исходным (незараженным). О выяв ленных несоответствиях сообщается пользователю.

Программы-ДОКТОРА (фаги) не только обнаруживают характерные для вирусов комбинации байт или изменения в файлах, но и могут автоматически вернуть файлы в исходное состояние.

Программы-ФИЛЬТРЫ располагаются резидентно (постоянно во время работы) в оперативной па мяти компьютера и перехватывают те обращения к операционной системе, которые используются виру сами для размножения и нанесения вреда, и сообщают о них пользователю. Пользователь может разре шить или запретить выполнение соответствующей операции.

Программы-ВАКЦИНЫ, или иммунизаторы, модифицируют программы и диски таким образом, чтобы это не отражалось на работе программ, но тот вирус, от которого производится вакцинация, счи тает эти программы или диски уже зараженными и не копируется на них.

Некоторые симптомы заражения вирусом • некоторые программы перестают работать или начинают работать неправильно;

• на экран выводятся посторонние сообщения, символы;

• работа на компьютере существенно замедляется;

• некоторые файлы оказываются испорченными;

• производится операция сохранение файлов без команды на то пользователя.

Действия при заражении вирусом 1 Не торопитесь и не принимайте опрометчивых решений. Непродуманные действия могут при вести не только к потере части файлов, но и к повторному заражению компьютера.

2 Выключите компьютер, чтобы вирус не продолжал своих разрушительных действий.

3 Лечение компьютера с помощью антивирусных программ следует выполнять только при загруз ке компьютера с защищенной от записи системной дискеты (ее надо подготовить заблаговременно: от форматировать дискету как системную, записать на нее антивирусную программу, защитить дискету от записи).

4 Если вы не обладаете достаточными знаниями или опытом для лечения компьютера, попросите помочь более опытных коллег.

Тема 3 ТЕХНИЧЕСКИЕ СРЕДСТВА РЕАЛИЗАЦИИ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ Данная тема включает в себя следующие вопросы:

1 Принципы архитектуры и история развития компьютеров.

1.1 Архитектура компьютера.

1.2 Основные тенденции развития аппаратного обеспечения компьютера.

1.3 Магистрально-модульный принцип архитектуры персональных компьютеров.

1.4 Хронология развития электронной вычислительной техники.

1.5 Поколения ЭВМ и их основные характеристики.

2 Представление информации в компьютере.

2.1 Представление текстовой информации 2.2 Представление графической информации 2.3 Представление звуковой информации 2.4 Представление числовой информации 1 ПРИНЦИПЫ АРХИТЕКТУРЫ И ИСТОРИЯ РАЗВИТИЯ КОМПЬЮТЕРОВ 1.1 А р х и т е к т у р а к о м п ь ю т е р а Основные понятия Архитектура ЭВМ – общее описание структуры и функций ЭВМ, ее ресурсов. В это описание вхо дит:

• общая конфигурация основных устройств;

• основные возможности и характеристики устройств;

• способы взаимосвязи основных устройств компьютера.

Ресурсы ЭВМ – средства вычислительной системы, которые могут быть выделены процессу обра ботки данных на определенный интервал времени. К ресурсам ЭВМ традиционно относят объем дос тупной памяти, процессорное время и др.

К центральным (системным) устройствам компьютера относят, прежде всего, центральный про цессор, оперативную память, системную магистраль.

Периферийными устройствами компьютера являются: дисплей, клавиатура, манипуляторы – мышь, джойстик, световое перо и т.п., винчестер, дисководы для гибких и компакт-дисков, принтер, плоттер, сканер, модем и пр.

Порт – устройство, через которое периферийные устройства подключаются к системной магистра ли.

При разработке принципов архитектуры компьютеров широко используется идея о разделении от дельных операций процесса решения задачи (процесса вычислений) между отдельными "специализиро ванными" устройствами.

Когда Чарльз Бэббидж разрабатывал аналитическую счетную машину в 1830-х гг. он предположил, что для успешной работы необходимы как минимум следующие устройства (рис. 9):

• устройство для обработки данных, в котором непосредственно осуществляются вычисления ("мельница);

• устройство для хранения данных ("склад");

• устройство для управления процессом вычислений ("контора").

Рис. 9 Архитектура аналитической счетной машины с точки зрения Ч. Бэббиджа Разработке Бэббиджа не суждено было воплотиться в действующей модели, но идеи о разделении отдельных операций процесса вычислений между отдельными "специализированными" устройствами получили дальнейшее развитие в принципах архитектуры компьютеров, традиционно называемых принципами фон Неймана (1940-е гг.). Эти принципы таковы:

– принцип программного управления. Все устройства работают под управлением программ.

Программы состоят из отдельных шагов – команд. Последовательность команд и является програм мой;

– принцип условного перехода. Существует возможность менять последовательность вычис лений в зависимости от полученных промежуточных результатов;

– принцип хранимой программы. Программы и данные к ним хранятся в одной той же памяти.

Команды представляются в числовой форме и хранятся в том же ОЗУ, что и данные для вычислений.

Таким образом, команды можно посылать в арифметическое устройство и преобразовывать как обычные числа. Это позволяет создавать программы, способные в процессе вычислений изменять сами себя;

– принцип иерархичности запоминающих устройств – память делится на оперативную (бы страя, небольшого размера) и долговременную (большую, а потому медленную). Наиболее часто ис пользуемые данные хранятся в быстром ЗУ сравнительно малой емкости, а более редко используемые – в медленном, но гораздо большей емкости;

– принцип двоичного кодирования – вся информация в компьютере хранится и обрабатывается в двоичном коде.

Начиная с первых ЭВМ (1940-е гг.), реализовывалась схема взаимодействия устройств компьюте ра, основанная на этих принципах, представленная на рис. 10.

Рис. 10 Схема взаимодействий устройств компьютера согласно архитектуре фон Неймана:

УУ – устройство управления;

АЛУ – арифметико-логическое устройство Что касается персональных компьютеров (конец 1970-х – начало 1980-х гг.), то их основу состав ляет находящаяся в системном блоке системная ("материнская") плата, на которой размещены сис темные (центральные) устройства компьютера – процессор и память (оперативная и постоянная), соединенные между собой системной шиной (информационной магистралью), к которой подсоединя ются контроллеры всех периферийных устройств, подключаемых к компьютеру (см. рис. 11). При этом периферийными считаются и клавиатура, и монитор, и винчестер, и дисководы, и модем, и ма нипуляторы, и сканер, и видеокамера, и т.д. Дополнительные устройства, позволяющие пользователю компьютера слушать музыку, смотреть видеоролики, работать в сети и т.д., подключаются через специальные платы расширения. Невозможна работа компьютера и без таких вспомогательных (с точки зрения процесса обработки информации) устройств, как блок питания, система охлаждения и пр.

Рис. 11 Схема архитектуры персонального компьютера Примечание. Адаптер монитора (видеоадаптер) часто также располагается на системной плате.

1.2 О с н о в н ы е т е н д е н ц и и р а з в и т и я аппаратного обеспечения компьютера Развитие ЭВМ с момента их появления происходит быстрыми темпами. Модернизируются существующие устройства и разрабатываются новые, появляются более совершенные конструк тивные решения для обеспечения взаимосвязи отдельных устройств между собой – т.е. архитекту ра ЭВМ постоянно совершенствуется. На смену большим ЭВМ пришли мини-ЭВМ, а затем и пер сональные компьютеры (ПК). Сохраняя общие принципы архитектуры, каждая новая модель ком пьютеров обладает определенными отличительными признаками.

Интеграция устройств. Например, если в первых моделях математический сопроцессор, кэш память, таймер и ряд других устройств изготавливались и размещались на материнской плате как от дельные устройства, то в настоящее время они все чаще объединяются в одном кристалле с централь ным процессором.

Расширение спектра периферийных устройств. В настоящее время пользователю предлагаются самые различные модели принтеров, дисплеев, клавиатур, несколько десятков видов манипуляторов, сенсорные системы и т.д.

Унификация портов – переход от специализированных портов для разных устройств (например, LPT – Line PrinTer – для подключения принтера и COM – communicate – для модема и т.п.) к универ сальным портам – USB – universal serial bus (универсальная последовательная шина). К одному USB порту можно подключить до 127 устройств разного назначения.

Унификация двоичного кодирования символов – переход от множества однобайтных таблиц ко дировок (ASCII, КОИ-8, CP1251 и т.п.) к единой двухбайтной таблице Unicode, содержащей коды 216 = 65536 различных символов.

1.3 М а г и с т р а л ь н о - м о д у л ь н ы й п р и н ц и п архитектуры персональных компьютеров Архитектура современных персональных компьютеров основана на магистрально-модульном принципе организации обмена информации. В соответствии с этим принципом центральные устройства компьютера взаимодействуют между собой (обмениваются информацией) и с периферийными устрой ствами через системную (информационную) магистраль (рис. 12).

Системная магистраль предназначена для передачи данных, адресов, команд управления, а пото му включает в себя шину данных, адресную шину и шину управления.

Центральные устройства подсоединены к шине непосредственно, а периферийные – через устрой ства сопряжения (контроллеры или адаптеры).

Рис. 12 Схема архитектуры ПК, основанной на магистрально-модульном принципе организации обмена информации:

НГМД – накопитель на гибких магнитных дисках (дисковод флоппи-диска);

Винчестер – накопитель на жестких магнитных дисках (НЖМД) 1.4 Х р о н о л о г и я р а з в и т и я электронной вычислительной техники 1941 г. – первый автоматический программируемый универсальный цифровой компьютер. Назва ние: Z Разработчик: доктор Конрад Цузе (Konrad Zuse), Германия.

Приблизительный период разработки: 1938 – 1941 гг.

Краткое описание: Z3 управлялся перфолентой из использованной кинопленки, а ввод и вывод производился с четырехкнопочной цифровой клавиатуры и ламповой панели. Машина была основана на реле-технологии и требовала приблизительно 2600 реле: 1400 – для памяти, 600 – для арифметиче ского модуля и оставшиеся как часть схем управления. Главный недостаток реле в том, что прохожде ние сигнала вызывает искру при замыкании и размыкании контактов. Искра была причиной износа и коррозии контактов и вызывала отказы реле. Память состояла из 64 слов. Цузе использовал двоичные числа с плавающей точкой, длина кода числа составляла 22 бит: четырнадцать для мантиссы, семь для порядка и один для знака. Арифметический модуль состоял из двух механизмов – для порядка и ман тиссы, – которые функционировали параллельно. Это обеспечивало не только выполнение четырех стандартных арифметических операций, но и позволяло вычислять квадратные корни. Имелись специ альные "аппаратные" команды для умножения чисел на – 1;

0,1;

0,5;

2 или 10. Практиковалось изготов ление специальных модулей для автоматического преобразования чисел из двоичной системы в десяте ричную, чтобы упростить чтение и запись данных. Z3 мог выполнять три или четыре сложения в секун ду и умножать два числа за 4 или 5 секунд. Z3 никогда не использовался для решения серьезных про блем, потому что ограниченная память не позволяла загрузить достаточное количество информации, чтобы обеспечить решение систем линейных уравнений, для чего он и создавался. Единственная модель Z3 была разрушена во время воздушного налета в 1944 г. Z3 – первое устройство, которое можно на звать полностью сформировавшимся компьютером с автоматическим контролем над операциями.

1943 г. – первый программируемый электронный цифровой компьютер.

Название: Colossus.

Разработчики: доктор Томми Флаверс (Tommy Flowers) и научно-исследовательские лаборатории Почтового департамента Англии, Приблизительный период разработки: 1939 – 1943 гг.

Краткое описание: Colossus был построен в 1943 году в научно-исследовательских лабораториях Почтового департамента Англии группой разработчиков во главе с Томми Флаверсом для декодирова ния немецких телеграфных шифровок. Немецкое командование использовало шифровальную машину Лоренца для обработки секретных депеш как от Гитлера к генералам, так и между генералитетом. Деко дируя эти сообщения, генералы Эйзенхауэр и Монтгомери получали важнейшую информацию, сыг равшую немаловажную роль в успешной высадке союзнических войск в 1944 г.

1946 г. – первый большой универсальный электронный цифровой компьютер (рис. 13).

Название: ENIAC (Electronic Numerical Integrator and Calculator).

Разработчики: Джон Мочли (John Маuchу) и Дж. Преспер Эккерт (J. Prosper Eckert).

Приблизительный период разработки: 1943 – 1946 гг.

Краткое описание: "Электронный числовой интегратор и вычислитель", полностью готовый к ра боте весной 1945 г., стал первым полнофункциональным цифровым компьютером. Он был произведен на свет в Школе электрической техники Moore (при университете в Пенсильвании). Для хранения и об работки данных в ней были применены 18 тыс. электронных ламп и 1500 реле. Таким образом, компью тер осуществлял обработку данных с помощью электроники, а не механически. ENIAC мог производить 5 тыс. операций сложения или 300 операций умножения в секунду. Время сложения – 200 мкс, умноже ния – 2800 мкс и деления – 24000 мкс. Команды по программе вводились вручную и каждый раз про грамму нужно было вводить заново. В результате на создание и выполнение даже самой простой про граммы требовалось очень много времени. Однако в считанные часы на этой машине можно было ре шить задачи, на которые 50 инженерам потребовался бы целый год. Компьютер содержал 17468 ваку умных ламп шестнадцати типов, 7200 кристаллических диодов и 4100 магнитных элементов. В 1940-е гг. электронные лампы не были такими надежными, какими они являются в настоящее время. В сред нем каждые 8 минут одна лампа выходила из строя и все-таки ENIAC продемонстрировал всем широкие возможности электронного компьютера. Потребляемая мощность ENIAC –174 кВт – мощность, доста точная для небольшого завода. Это было огромное сооружение из 40 панелей, расположенных П образно. Объем – 85 м3, длина – 30 м, занимаемое пространство – около 300 м2, вес – 30 т.

Первая полностью электронная цифровая вычислительная машина ENIAC (Electronic Numerical Integrator and – электронный численный интегратор и калькулятор) была создана в 1946 г. по заказу военного ведомства США. Машина употребляла около 150 кВт энергии.

Рис. 13 ENIAC 1949 г. – первый большой полнофункциональный электронный цифровой компьютер с сохраняемой программой.

Название: EDSAC (Electronic Delay Storage Automatic Computer – электронный калькулятор с памя тью на линиях задержки).

Разработчики: Морис Вилкес (Maurice Wilkes) и сотрудники математической лаборатории Кем бриджского университета (Англия).

Приблизительный период разработки: 1946 – 1949 гг. Первая программа успешно прошла 6 мая 1949 г.

1950 г. – первая отечественная электронная цифровая вычислительная машина.

Название: МЭСМ ("Модель электронной счетной машины").

Разработчики: С.А. Лебедев, Институт электротехники АН УССР.

Приблизительный период разработки: 1946 – 1950 гг.

1952 г. – первая российская цифровая вычислительная машина общего назначения семейства БЭСМ, ориентированная на решение сложных задач науки и техники.

Название: БЭСМ – "большая электронная счетная машина".

Разработчик: Институт точной механики и вычислительной техники АН СССР.

Приблизительный период разработки: 1949 – 1952 гг.

Краткое описание: Трехадресная машина параллельного действия, оперировавшая с 39 разрядными словами со скоростью 10 тыс. операций в секунду.

1956 г. – первое принесшее коммерческий успех игровое цифровое устройство. Прообраз игровых компьютеров и приставок.

Название: Genlac.

Разработчик: Эдмунд Беркли (Edmund С. Berkeley).

Приблизительный период разработки: 1955 – 1956 гг.

1963 г. – первое надежное коммерческое использование электроннолучевых трубок (CRT) для ком пьютерного дисплея.

Название: PDP-1.

Разработчик: Digital Equipment Corporation. В более ранних моделях дисплеев использовались CRT от осциллографа.

1964 г. – первое ручное устройство ввода.

Название: "мышь".

Разработчик: Дуглас Энгельбарт (Douglas Engelbart).

Приблизительный период разработки: 1962 – 1964 гг.

1967 г. – одна из самых успешных отечественных разработок, самая мощная вычислительная ма шина семейства БЭСМ – БЭСМ-6.

Разработчик: Институт точной механики и вычислительной техники АН СССР. Приблизитель ный период разработки: 1965 – 1967 гг.

Краткое описание: Быстродействие – около 1 млн. операций в секунду. Применение в машине од ноадресной системы команд подтверждало общую тенденцию повышения гибкости командного управ ления. Центральный процессор характеризовался высокой степенью локального параллелизма, у него были сверхбыстродействующее буферное запоминающее устройство и расширенная система команд, он обладал возможностью организации стековой памяти и разбиением оперативной памяти на независи мые блоки. Широко использовалось совмещение выполнения операций обращения к памяти с работой арифметического устройства и устройства управления. Имелось пять уровней предварительного про смотра команд. Работа машины в режиме разделения времени и мультипрограммирования обеспечива лась аппаратной системой прерываний, схемой защиты памяти, индексацией и развитой системой пре образования виртуальных адресов памяти в физические. Были предусмотрены также косвенная адреса ция и возможности переадресации. Общий объем математического обеспечения достигал сотен тысяч строк кода.

1970 г. – создание больших интегральных схем (БИС). На одном кристалле удалось разместить все основные электронные части процессора.

1970 г. – первый многооконный интерфейс пользователя. Первая крупномасштабная реализация электронной почты.

Разработчики: Дуглас Энгельбарт (Douglas Engelbart) и Исследовательский центр аугментации (Augmentation Research Center).

Приблизительный период разработки: 1969–1970 гг.

1971 г. – первый коммерчески доступный микропроцессор.

Название: Intel 4004.

Разработчик: корпорация Intel, разработка для компании Busicom.

1971 г. – первое регулярное использование 8-дюймовой гибкой дискеты (бабушки флоппи-дисков).

Разработчик: Алан Шугарт (Alan Shugart) в IBM.

1973 г. – первый полнофункциональный персональный компьютер, укомплектованный монитором.

Название: Alto.

Разработчик: фирма Xerox, лаборатория в Пало-Альто (Xerox PARC).

Приблизительный период разработки: 1970 – 1973 гг.

1975 г. – первый серийно произведенный и выставленный на продажу персональный компьютер (в комплекте для сборки и собранный).

Название: Аltair 8800.

Разработчики: Эдвард Робертс (Edward Roberts), Вильям Ятес (William Yates) и Джим Байби (Jim Bybee).

Приблизительный период разработки: 1973–1974 гг.

Краткое описание: Первый Altair использовал процессор Intel 8080 и 4 Кбайт памяти. По заказу Эдварда Робертса из компании MITS, распространяющей компьютер, Билл Гейтс и Поль Аллен написа ли интерпретатор языка Бейсик, втиснув его в имеющиеся 4 Кбайт (этим до сих пор гордится Б. Гейтс).

Так начиналась компания Microsoft, специализирующаяся на разработке программного обеспечения.

1975 г. – первый персональный компьютер IBM (IBM Portable Computer).

Название: IBM 5100.

Разработчик: IBM.

Приблизительный период разработки: 1973 – 1975 гг. (продажа и маркетинг этого устройства были неудачны).

Краткое описание: Портативный компьютер с ленточным устройством ввода/ вывода и крошеч ным дисплеем. IBM 5100 – один из самих первых персональных компьютеров.

IBM 5100 Portable Computer был первой (и неудачной) попыткой IBM сформировать персональный компьютер в конце 1974 г. Он весил около 23 кг и стоил около 10000 долларов. У компьютера были встроенный ленточный накопитель, маленький экран и возможность управления программами на Бейсике или APL (языке программирования, создан ном IBM). IBM использовала собственные комплектующие и не полагалась на микропроцессор Intel, в отличие от следующих, более успешных моделей.

Монитор отображал 16 строк по 64 символа в каждой, память расширялась до 64 Кбайт, и ленточ ное устройство использовало стандартную музыкальную кассету, которая сохраняла приблизительно 200 Кбайт данных.

Компьютер разрабатывался для использования в малом бизнесе, но высокая стоимость, недос татки интерфейса и невозможность обмена данными с другими компьютерами ограничили его применение и не позволили стать широко используемым персональным компьютером.

1976 г. – первый чрезвычайно успешно продаваемый персональный компьютер.

Название: Apple II.

Разработчики: СтивДжобс (Steve Jobs) и Стив Возняк (Steve Wozniak).

Приблизительный период разработки: 1974 – 1976 гг.

Краткое описание: первый компьютер Аррlе, собранный буквально на коленках, не слишком от личался от своих собратьев (Altair и другие). И только линия Apple II, выполненная на коммерческой основе, стала чрезвычайно популярна. Немного позже появились Аррlе III и Lisa, а только затем – Macintosh, вышедший как Мас 128К (со всеми новинками, приписываемыми фирмеАрр1e как первоот крывателю). Apple II имел 48 Кбайт памяти и S.O.S. (Sophisticated Operating System – "замысловатая операционная система");

он создал тенденцию всеобщей компьютеризации и породил бум персональ ных компьютеров.

1981 г. – первый успешно продаваемый персональный компьютер IBM.

Название: IBM PC.

Разработчик: IBM.

Приблизительный период разработки: 1978 – 1981 гг.

Краткое описание: Оригинальный PC – это модель 1983 г. с 640 Кбайт оперативной памяти, но са мые ранние модели могли иметь только 64 Кбайт на материнской плате. Этот PC имел два пятидюймо вых дисковода для гибких дискет на 360 Кбайт. Потребляет всего 63,5 Вт.

IBM представила Personal Computer (PC), или персональный компьютер (ПК), 12 августа 1981 г. В то время большинство компьютеров все еще были 8-разрядными и могли обрабатывать 8 бит информа ции за такт. IBM революционизировала компьютерную индустрию, выйдя на рынок с персональным компьютером, базирующемся на процессоре Intel 8088, совместимом с компьютерами на 8-разрядных процессорах Intel, но обрабатывающем до 16 бит информации за такт (т.е. он был 16-разрядным).

PC показал пример расширяемой архитектуры, известной как "открытая архитектура", которая дала возможность пользователям добавлять новые компоненты к их компьютерам без замены це лого устройства.

Первоначально IBM PC (модель 5150) приходил с 16 Кбайт стандартной оперативной памяти, имел одноцветный монитор, где зеленым по черному отображалось 25 строк по 80 символов и ко торый подключался к блоку питания компьютера, так что не нуждался в собственном выключате ле;

монохромный графический адаптер с параллельным портом для принтера;

последовательный порт;

гибкий дисковод, способный использовать односторонние и двухсторонние дискеты, с оди нарной и удвоенной плотностью записи (емкостью 80…360 Кбайт). Благодаря возможной расши ряемости и открытости архитектуры сторонние изготовители быстро наладили производство же стких дисков, которые добавили новые возможности для хранения программ и данных на IBM PC.

В марте 1983 г. IBM выпустила персональный компьютер XT (сокращение от eХtended Technology), или PC/XT, или просто ХТ. Он комплектовался жестким диском на 10 мегабайт, памятью до 640 Кбайт и MS-DOS v2.1., которая поддерживала каталоги и подкаталоги. Один или два дисковода для пятидюймо вых гибких дискет а позже жесткий диск на 20 Мбайт и низкая цена (1995 долларов) открыли новую эру использования персональных компьютеров. Шина расширения персонального компьютера XT содержа ла восемь слотов вместо старых пяти. Это дало пользователям большую гибкость в добавлении перифе рийных устройств. Машина была настолько популярна, что многие изготовители начали копировать проект IBM. Начиная с XT произошел взрыв в индустрии персональных компьютеров. Он стал возмо жен благодаря открытой архитектуре IBM PC и XT, ставшей промышленным стандартом.

1981 г. – первый успешно продаваемый переносной микрокомпьютер с экраном, дисководами и сумкой для переноса (прообраз ноутбуков).

Название: Osborne 1.

Разработчик: Osborne Computer Corp.

Приблизительный период разработки: 1980 – 1981 гг.

Краткое описание: Дисковод для пятидюймовых гибких дискет, крошечный экран (3,55 дюйма по горизонтали и 2,63 по вертикали), шаблон текстового процессора Wordstar на клавиатуре, аккумулятор ные батареи и сумка для переноски.

1.5 П о к о л е н и я Э В М и и х о с н о в н ы е х а р а к т е р и с т и к и Существует своеобразная периодизация развития ЭВМ, связанная, в основном, с типом ис пользуемой элементной базы, которая определяет в свою очередь быстродействие компьютера, емкость ЗУ. Временные границы поколений сильно размыты: в одно и то же время выпускались и использовались машины различных типов. Для отдельных же машин вопрос об их принадлежно сти к тому или иному поколению решается достаточно просто.

С переходом к серийному производству ламповых ЭВМ с хранимой программой начинается пери од машин первого поколения.

В качестве внешних носителей информации при вводе и выводе данных использовались перфолен ты и перфокарты. Типичное (среднее) быстродействие машин первого поколения измерялось несколь кими тысячами арифметических операций в секунду.

В 1948 г. был изобретен транзистор и начиная с середины 1950-х гг. на смену ламповым машинам пришли транзисторные машины второго поколения, в которых основными элементами были полу проводниковые триоды-транзисторы (габариты транзистора, заменившего электронную лампу, прибли зительно в 40 раз меньше). Транзисторные машины обладали значительно более высокой надежностью, чем ламповые ЭВМ (средний срок службы транзисторов на два-три порядка превосходит срок службы электронных ламп), меньшим потреблением энергии, более высоким быстродействием, которое дости галось не только за счет повышения скорости переключения счетных и запоминающих элементов, но и за счет изменений в структуре машин. Наиболее мощные машины второго поколения (МИНСК, МИР, БЭСМ-6) достигали быстродействия до ста тысяч операций в с.

В 1964 г. были изобретены интегральные схемы (ИС – электронная схема, вытравленная на поверх ности кремниевого кристалла, содержит несколько сотен транзисторов). В интегральных схемах эле менты создаются по специальной технологии в самом веществе материала. Основой для таких сем слу жат полупроводниковые материалы, чаще всего кремний.) Интегральные схемы стали элементной базой для машин третьего поколения. Начало периода машин третьего поколения связано с разработ кой серии IBM-360 (США) и ЕС ЭВМ (страны социалистического содружества). Переход на ИС влиял на увеличение надежности работы ЭВМ, уменьшение габаритных размеров, уменьшение потребления энергии. ЭВМ третьего поколения оперируют с произвольной буквенно-цифровой информацией (поя вилась возможность вводить информацию с клавиатуры, а не с перфолент и перфокарт, как это было раньше). Они построены по принципу независимой параллельной работы различных устройств: процес сора, средств внешней памяти, благодаря чему ЭВМ одновременно могла выполнять серию операций:

вводить информацию с магнитной ленты, решать задачи, выводить информацию на магнитный диск или печатающее устройство. Начиная с третьего поколения компьютеры работают под управлением операционных систем. Ученые постоянно работали над уменьшением размеров аппаратуры, что приве ло к появлению так называемых мини- и микроЭВМ.

В 1970 г. были разработаны большие интегральные схемы (БИС). На одном кристалле удалось разместить все основные электронные части процессора – появился микропроцессор. Постоянное со вершенствование технологии производства БИС повлекло за собой быструю смену поколений микро процессоров, что приводит к стремительному совершенствованию электронной вычислительной техни ки – появлению четвертого поколения ЭВМ. Производительность машин четвертого поколения дос тигает нескольких миллионов операций в секунду. Объем оперативной памяти достигает нескольких мегабайт.

С микропроцессорной революцией непосредственно связано одно из важнейших событий в истории ЭВМ – создание и широкое применение персональных компьютеров. ПК обладают такими привлека тельными свойствами для пользователей, как малая энергопотребляемость, относительно малая стои мость, небольшие габаритные размеры, повышенная надежность в эксплуатации, большие возможности обработки информации различного типа.

Конечно, развитие ВТ идет не только по линии изменения элементно-технологической базы. Про изводительность традиционных вычислительных систем повышается двумя путями: развитием эле ментной базы и архитектуры ЭВМ.

Однопроцессорная архитектура имеет предел производительности, определяемый скоростью рас пространения электрического сигнала по физическим линиям связи между устройствами компьютера.

Другой подход повышения производительности вычислительных систем основан на использовании принципа параллелизма, т.е. обработка информации разбивается на несколько одновременно выпол няемых последовательных процессов, каждый из которых может обмениваться информацией с другими процессами. В 1985 г. было разработано новое вычислительное устройство, получившее название транспьютер.

Транспьютер – это вычислительное устройство, выполненное в виде одной сверхбольшой инте гральной схемы, содержащей процессор, запоминающее устройство и коммуникационные связи для соединения с другими компьютерами. Транспьютер используется как элементарный блок для построе ния параллельных высокопроизводительных систем. Они могут быть соединены друг с другом различ ными способами, образуя разнообразные архитектуры параллельной обработки.

В настоящее время создаются микропроцессоры седьмого поколения (Intel IV, Athlon и др.). Их бы стродействие оценивается в 1,5…2 ГГц или 1,5…2 миллиарда операций в секунду (109). Оперативная память имеет емкость 256…512 Мб (108). Имеются средства речевого ввода команд. Многие программы включают в себя модули, традиционно относящиеся по своим функциям к системам искусственного ин теллекта. На специальных серверах используется сразу несколько процессоров, распараллеливающих процесс выполнения программ. ПК, оснащенные такого рода устройствами, можно отнести к компью терам пятого поколения.

3 Поколения ЭВМ (XX – XXI вв.) Характерис 50 – 60 60 – 70 70 – 80 80 – 90 наст.

тики гг. гг. гг. гг. время Элементная Элек- Полу- Инте- БИС, транс тронные провод- гральные СБИС, пьютеры база лампы никовые микро транзи- схемы сторы (ИС) Быстродей- 103 … 104 … 105 … 106 … 1068 … 104 105 106 107 ствие (опера ции/с) Объем опе- 103 104 105 … 106 … 107 … 106 107 ративной памяти (байт) Средство Пульт Перфо- Дисплей, Манипу- Речевой связи поль- управле- карты, клавиа- ляторы, ввод ния и перфо- тура средства зователя с перфо- ленты, теле ЭВМ карты магнит- комму ные лен- никации ты Языки Машин- Языки Проце- Языки Объект программи- ные ко- симво- дурные логиче- но ды лическо- языки ского ориенти рования го коди- высокого про- рован рования уровня. грамми- ные язы рования ки, язы ки ги пертек стовой разметки Программ- Языки Опера- Банки Системы управле- ционные данных, искусст ное обеспе ния за- системы. эксперт- венного чение данием Базы ные сис- интел данных темы, лекта, интегри- геоин рован- форма ные ционные офисные системы, пакеты поиско вые ме ханизмы Примеры МЭСМ, Семей- Семей- Персо- Серверы, УРАЛ ство ство нальные супер ЭВМ БЭСМ, IBM компью- ЭВМ МИНСК, ЕС, СМ, теры НАИРИ, Элек МИР троника 2 ПРЕДСТАВЛЕНИЕ ИНФОРМАЦИИ В КОМПЬЮТЕРЕ Представление данных в компьютере сводится, по сути, к различным способам их кодирования в двоичном алфавите (рис. 14). А само существование различных способов обуславливается тем, что об работка данных разного типа включает в себя различные операции, и целесообразно выбирать такой способ кодирования, при котором операции над данными выполняются наиболее быстро и "универ сально".

Рис. 14 Формы представления информации 2.1 П р е д с т а в л е н и е т е к с т о в о й и н ф о р м а ц и и Под текстом понимается последовательность знаков, входящих в некоторое множество (алфа вит) и обладающих в этом множестве определенным смыслом, т.е. каждый знак рассматривается в таком контексте как символ. Поэтому часто данные такого вида называют еще символьными.

В более узком смысле текстом будем называть некоторую последовательность закодированных в дво ичном коде знаков, которую можно хранить, передавать, преобразовывать с помощью компьютера.

Если первоначально компьютеры были предназначены для проведения всевозможных расчетов ("вычислительные машины"), т.е. выполнения операций над числами, то в настоящее время значитель ная доля компьютерных ресурсов тратится именно на ввод, хранение, передачу и обработку текстов.

Какие же операции можно производить над текстом, ли он уже находится в памяти компьюте ра? Прежде всего, поиск заданной последовательности символов и замена на другую последователь ность символов, упорядочивание символов (заметим, что добавление, замена, удаление, копирование и тому подобные операции относятся в равной мере к обработке данных всех типов). И поиск, и упоря дочивание сводятся к выполнению операции сравнения символов. При сравнении символов наиболее важными аспектами являются уникальность кода для каждого символа и длина этого кода, а сам вы бор принципа кодирования в настоящее время практически не имеет значения. Поэтому можно ис пользовать различные таблицы кодировки, лишь бы при кодировании и декодировании символов исполь зовалась одна и та же таблица.

В вычислительных машинах для представления информации используются цепочки байтов. По этому для перевода информации из машинного представления в человеческий необходимы таблицы ко дировки симво- лов – таблицы соответствия между символами определенного языка и кодами символов. Их еще назы вают таблицами кодировки, кодовыми страницами или применяют английский термин character set (который иногда сокращают до charset).

Самой известной таблицей кодировки является код ASCII (Американский стандартный код для обмена информацией). Первоначально он был разработан для передачи текстов по телеграфу, причем в то время он был 7-битовым, т.е. для кодирования символов английского языка, служебных и управ ляющих символов использовались только 128 7-битовых комбинаций. При этом первые 32 комбинации (кода) служили для кодирования управляющих сигналов (начало текста, конец строки, перевод карет ки, звонок, конец текста и т.д.). При разработке первых компьютеров фирмы IBM этот код был ис пользован для представления символов в компьютере. Поскольку в исходном коде ASCII было всего символов, для их кодирования хватило значений байта, у которых 8-ой бит равен 0. Значения байта с 8-ым битом, равным 1, стали использовать для представления символов псевдографики, математиче ских знаков и некоторых символов из языков, отличных от английского (греческого, немецких умляутов, французских диакритических знаков и т.п.).

Когда стали приспосабливать компьютеры для других стран и языков, места для новых символов уже не стало хватать. Для того, чтобы полноценно поддерживать помимо английского и другие язы ки, фирма IBM ввела в употребление несколько кодовых таблиц, ориентированных на конкретные страны. Так для скандинавских стран была предложена таблица 865 (Nordic), для арабских стран – таблица 864 (Arabic), для Израиля – таблица 862 (Israel) и так далее. В этих таблицах часть кодов из второй половины кодовой таблицы использовалась для представления символов национальных алфави тов (за счет исключения некоторых символов псевдографики).

С русским языком ситуация развивалась особым образом. Очевидно, что замену символов во вто рой половине кодовой таблицы можно произвести разными способами. Вот и появились для русского языка несколько разных таблиц кодировки символов кириллицы: KOI8-R, IBM-866, CP-1251, ISO-8551-5. Все они одинаково изображают символы первой половины таблицы (от 0 до 127) и различаются представлением символов русского алфавита и псевдографики.

Что касается длины кода, то она по возможности должна быть минимальной и в то же время доста точной для кодирования всех символов, которые могут потребоваться при вводе текстов любой сложно сти.

ЭВМ первых поколений в силу ограниченности оперативной памяти и невысокого по современным меркам быстродействия процессоров использовали минимальный набор символов. Рост мощности компьютерных устройств привел к тому, что в настоящее время при работе с одним ПК можно ис пользовать несколько разных таблиц перекодировки. По сути, многие современные программные сред ства, будь то текстовые процессоры или программы для работы в Internet, предоставляют пользова телю возможность выбора, какую из таблиц перекодировки использовать в своей работе, автомати чески проводя преобразования существующего текстового файла из одного способа кодирования в дру гой по команде пользователя. Соответствующие программные модули называют конверторами.

Сейчас, когда объем памяти компьютеров чрезвычайно вырос, уже нет нужды сильно экономить при кодировании текста. Можно позволить себе "роскошь" тратить для хранения текста вдвое больше памяти (выделяя для каждого символа не 1, а 2 байта). При этом появляется возможность разместить в кодовой таблице – каждый на своем месте – не только буквы европейских алфавитов (латинского, кириллического, греческого), но и буквы арабского, грузинского и многих других языков и даже большую часть японских и китайских иероглифов. Ведь два байта могут хранить уже число от 0 до 65535.

Двухбайтная международная кодировка UNICODE, разработанная несколько лет назад, теперь начинает внедряться на практике. В стандарте UNICODE кроме определенного двоичного кода (эти коды принято обозначать буквой U, после которой следуют знак + и собственно код в шестнадцати ричном представлении) каждому символу присвоено определенное имя. Полная спецификация стан дарта Unicode представляет собой довольно толстую книгу и включает в себя все существующие, вы мершие и искусственно созданные алфавиты мира, а также множество математических, музыкаль ных, химических и прочих символов.

Отметим, что и ASCII и UNICODE и другие стандарты кодировки символов не определяют изо бражения символов, а только состав набора символов и способ его представления в компьютере. Кро ме того, очень важен порядок перечисления символов в наборе, так как он влияет самым существен ным образом на алгоритмы сортировки.

Зачем вообще понадобилось создавать разные кодировки для одного и того же алфавита? Разве трудно было придерживаться какого-то одного для всех стандарта? Помимо соображений конкурен ции ("Когда наша операционная система завоюет признание, то вместе с ней утвердится и кодировка, – так что конкурентам придется поработать, обеспечивая совместимость") изобретателями коди ровок в первую очередь двигал чисто практический расчет. Как правило, еще до того как операционная система русифицируется, за символами из верхней половины таблицы ASCII (с кодами от 128 до 255) уже закреплено то или иное употребление, и, чтобы разместить в этом же диапазоне кириллический алфавит, приходится чем-то жертвовать. Разумеется, наименее ценные кодовые позиции, замещение которых нанесет наименьший ущерб функциональности системы, в каждом случае свои, и чаще всего необходимые для полного набора кириллицы 66 знакомест (включая букву "е", которая традиционно выносится за пределы основного алфавита) не удается расположить подряд. Этим и объясняется тот факт, что ни в одной из кодировок, кроме ISO 8859-5 и Unicode, русские буквы не идут сплошным блоком. В некоторых кодировках допускаются даже отклонения от алфавитного порядка – в особен ности в ДКОИ-8, расположение русских букв в которой определяется, как это ни смешно, алфавитом тех латинских букв, которые на клавиатурах советского производства располагались на одних клави шах с соответствующими буквами кириллицы (например, буква "Ю" стояла на одной клавише с симво лом "@", идущим в ASCII перед латинской "A", и потому стала в КОИ8 "первой буквой алфавита").

2.2 П р е д с т а в л е н и е г р а ф и ч е с к о й и н ф о р м а ц и и Человек воспринимает информацию с помощью всех органов чувств и самыми различными спосо бами, но все же основными формами информации, с которыми нам наиболее привычно "работать", яв ляются вербальный и образный, причем последнему часто отдается предпочтение. Сегодня трудно представить себе экран монитора без графического оформления: пиктограммы стали неотъемлемыми компонентами пользовательского интерфейса многих программных средств, с помощью программ аниматоров создать мультипликационный фильм может сейчас не только коллектив профессиональных художников, но и любой человек, которому интересно этим заниматься.

Правда, так было не всегда. Самые первые компьютеры могли работать только с числами – произ водить вычисления. Затем с увеличением быстродействия процессоров, появлением дисплеев и внеш ней памяти на магнитных носителях появилась возможность обрабатывать текстовую информацию. Но уже тогда хотелось создавать таблицы и графики, рисовать на компьютере. Но на алфавитно-цифровых дисплеях графика была возможна только как "псевдографика" (вообще, для компьютера "псевдо" – ши роко распространенное явление: графика – точечная, пространство – виртуальное, интеллект – искусст венный и т.д.).

Графические дисплеи появились в начале восьмидесятых годов. К этому времени достигнутое бы стродействие процессоров, объемы памяти, обширные библиотеки алгоритмов уже позволяли созда вать, выводить на экран, преобразовывать даже очень сложные графическое образы в реальном време ни, т.е. без заметных для человека "задержек" на их обработку компьютерными устройствами.

Компьютерная графика сейчас распространяется все шире. Даже программы, предназначенные для создания и работы с текстами – текстовые процессоры – имеют, как правило, встроенные возможности по созданию рисунков, чертежей, схем и встраиванию их в текст.

Работа с графикой на компьютере требует решения следующих проблем.

Как закодировать информацию графического вида в двоичном коде?

Как передать средствами компьютера цвет в изображении?

Какие средства позволяют передать объемность изображения на плоском экране?

Как обеспечить эффект движения при создании анимационных роликов?

Пожалуй, именно для представления в двоичном коде информации графического вида разработано наибольшее число различных способов. Косвенным свидетельством этого можно считать наличие большого числа форматов графических файлов: *.bmp, *.jpg, *.tif, *.pcx, *.aca, *.cdr и т.д. Отчасти это связано с тем, что для хранения рисунков в двоичном коде требуется много места в памяти ком пьютера, и программисты всегда пытались изобрести "экономный" способ кодирования графических изображений.

Важным этапом кодирования графического изображения является разбиение его на дискретные элементы (дискретизация).

Основными способами представления графики для ее хранения и обработки с помощью компьюте ра являются растровые и векторные изображения.

Векторное изображение представляет собой графический объект, состоящий из элементарных геометрических фигур (чаще всего отрезков, дуг, прямоугольников, эллипсов). Положение этих прими тивов определяется координатами характерных точек и величиной радиуса. Для каждой линии указы вается ее тип (сплошная, пунктирная, штрих-пунктирная), толщина и цвет. Информация о векторном изображении кодируется как обычная числовая и обрабатывается специальными программами.

Графический примитив – геометрическая фигура, являющаяся элементом графического изобра жения, создаваемого с помощью графического редактора.

Графическим примитивом могут быть прямоугольники, эллипсы, прямые линии, стрелки различной конфигурации и т.п.

Матричный принцип кодирования графических изображений заключается в том, что изображе ние разбивается на заданное количество строк и столбцов. Затем цвет каждого элемента (клетки, точки) полученной сетки кодируется по выбранному правилу.

Правила могут быть самыми разнообразными, рассмотрим наиболее простое из них.

Если рисунок черно-белый, то достаточно ставить в соответствие клеточке, у которой "закрашено" больше половины площади, единицу, иначе – ноль. Если рисунок цветной, то для каждой точки нужно сохранять код ее цвета.

Точки-клетки, на которые разбивается изображение, называются пикселями.

Pixel (picture element – элемент рисунка) – минимальная единица изображения, цвет и яркость ко торой можно задать независимо от остального изображения.

В соответствии с матричным принципом строятся изображения, выводимые на принтер, ото бражаемые на экране дисплея, получаемые с помощью сканера.

Качество изображения будет тем выше, чем "плотнее" расположены пиксели, т.е. чем больше разрешающая способность устройства, и чем точнее закодирован цвет каждого из них. Разрешение устройств обычно измеряют в "точках на дюйм" (dpi).

О графическом изображении, когда каждый пиксель кодируется n битами, говорят как о графике глубиной в n разрядов.

Глубина цвета – длина кода, используемого при кодировании цвета одного пикселя.

При глубине кода, равной 1, можно передать 21 = 2 цвета (например, черный и белый).

При глубине кода, равной 4, можно передать 24 = 16 цветов.

При глубине кода, равной 8 (1 байт), можно передать 28 = 256 цветов.

При глубине кода, равной 16 (2 байта), можно передать 216 = 65536 цветов (режим High Color).

При глубине кода, равной 24 (3 байта), можно передать 224 = = 16777216 оттенков цвета (режим True Color).

Каким образом кодируется цвет пикселя или графического примитива?

Если Вы посмотрите на экран дисплея через сильную лупу или увеличительное стекло, то увидите либо множество разноцветных прямоугольников, либо множество разноцветных кружочков (в зави симости от марки и модели техники). Каждый экранный пиксель состоит из трех таких элементов, один из которых красного (Red), другой зеленого (Green), третий синего (Blue) цвета (RGB-модель цветообразования).

Известно, что, если на изображении имеются близко расположенные цветные детали, то с боль шого расстояния мы не различаем цвета отдельных деталей – происходит смешение световых пото ков, передающих цвета этих деталей. Известно также, что любой желаемый цвет может быть по лучен в результате сложения (смешения) красного, зеленого и синего световых потоков. Яркость (ин тенсивность) каждого цвета может быть различна.

Рассмотрим самый простой случай – каждый из трех составляющих пикселя может либо гореть (1), либо не гореть (0). Тогда мы получаем следующий набор цветов:

Красный Зеленый Синий Цвет 0 0 0 Черный 0 1 0 Зеленый 0 0 1 Синий 1 0 0 Красный 0 1 1 Бирюзовый 1 1 0 Желтый 1 0 1 Малиновый 1 1 1 Белый При печати на принтере используется несколько иная цветовая модель: если монитор испускал свет и оттенок получался в результате "сложения" цветов, то краски – поглощают свет, цвета "вы читаются". Попробуйте покрасить бумагу смесью из красной, зеленой и синей краски – вряд ли вы ко гда-нибудь получите белый цвет. Поэтому для цветной печати используют в качестве основных иные цвета – голубую (Суаn), пурпурную (Magenta) и желтую (Yellow) краски. Теоретически наложение этих трех цветов должно давать черный цвет. На практике из-за неидеальности красителей чаще получа ется серый или коричневый цвет. Поэтому в качестве четвертого основного цвета к ним обычно до бавляют черную (blacK) краску. Отсюда пошло название этого способа цветообразования – CMYK модель. Для хранения информации о доле каждой краски и в этом случае чаще всего используется байт.

Трехмерная компьютерная графика Создание и редактирование трехмерных объектов происходит на базе использования достаточно сложного математического аппарата. Он используется для преобразования трехмерных координат изо бражаемого объекта в их проекцию на плоскость, а также для пересчета кодов оттенков цвета каждого пикселя при отражении на плоском экране светотеней, рельефа для создания более реалистичной "объ емности" изображения.

Специальные алгоритмы позволяют масштабировать, наклонять, зеркально отображать объекты в трехмерном пространстве, а также создавать эффекты перспективы, скручивания, изгиба, наклона и раскачивания тел. Используются различные методы расчета освещенности и теней на искривленных поверхностях тел. С помощью эффектов дымки и дистанционных теней моделируются различные атмо сферные явления: туман, облачность. За счет специальных средств создаются нестандартные материа лы, например, поверхности с вмятинами, с волокнами дерева или из мрамора, можно преобразовывать, например, прозрачную пластиковую поверхность объекта в металлическую и т.п. Математические рас четы позволяют задавать динамическое изменение текстуры объектов, например, для изображения мер цающего пламени.

Анимационные эффекты Анимация – искусственное представление движения в кино, на телевидении или в компьютерной графике путем отображения последовательности рисунков или кадров с частотой, при которой обеспе чивается целостное зрительное восприятие образов.

Как правило, для плавного воспроизведения анимации необходима скорость, или частота кадров, не менее 10 кадров в секунду – инертность зрительного восприятия.

Разница между анимацией и видео состоит в том, что видео использует непрерывное движение и разбивает его на множество дискретных кадров. Анимация использует множество независимых рисун ков или графических файлов, которые выводятся в определенной последовательности для создания ил люзии непрерывного движения. Кроме того, в традиционной анимации принципиально разделена дву мерная, рисованная, и трехмерная, кукольная, анимация. Компьютер стирает эти грани: созданное пло скостное изображение можно перевести в объем и наложить на сложную поверхность.

Для создания компьютерной анимации существует множество программных средств и способов.

Наиболее распространенным способом создания анимации является метод ключевых или опорных кад ров. Ключевым событием может являться задаваемое пользователем изменение параметров одного из возможных преобразований объекта (положения, поворота или масштаба), изменение любого из допус кающих анимацию параметров (свойства источников света, материалов и др.). После определения всех ключевых кадров система компьютерной анимации выполняет автоматический расчет событий анима ции для всех остальных кадров, занимающих промежуточное положение между ключевыми, так назы ваемых промежуточных кадров.

Компьютерная анимация – один из главных элементов мультимедиа проектов и презентаций.

Трехмерная графика и анимация полезны не только при производстве телевизионных анимацион ных роликов или спецэффектов в кинофильмах, но и в производственной деятельности при создании различного рода двух- и трехмерных моделей.

2.3 П р е д с т а в л е н и е з в у к о в о й и н ф о р м а ц и и Из курса физики Вам известно, что звук – это колебания воздуха. По своей природе звук является непрерывным сигналом. Если преобразовать звук в электрический сигнал (например, с помощью микрофона), мы можем зафиксировать плавно изменяющееся с течением времени напряжение (рис. 15).

Для компьютерной обработки аналоговый сигнал нужно каким-то образом преобразовать в после довательность двоичных чисел – дискретизировать его (англ. discrete – раздельный, состоящий из от дельных частей) и оцифровать.

Рис. 15 Регистрация звука как непрерывного сигнала Можно поступить следующим образом: измерять амплитуду сигнала через равные промежутки времени и записывать полученные числовые значения в память компьютера (рис. 16).

Устройство, выполняющее процесс дискретизации и оцифровки аналоговых сигналов, называется аналого-цифровым преобразователем (АЦП).

Рис. 16 Схема дискретизации непрерывного сигнала Как видно из рисунка, результат измерений не является точным аналогом непрерывного электри ческого сигнала. Насколько все же соответствует "цифровой" звук аналоговому? Очевидно, что это соответствие будет тем полнее, чем чаще происходят измерения и чем они точнее. Частота, с кото рой производятся измерения, называется частотой дискретизации. Когда мы говорим, что частота дискретизации 44,1 кГц, то это значит, что сигнал измеряется 44100 раз в течении секунды.

А точность измерений амплитуды определяется числом бит, использующихся для представления результата измерений. Этот параметр называют разрядностью или уровнем квантования.

Чем выше частота дискретизации и уровень квантования, тем точнее будет представлен и затем воспроизведен звук. Однако, пропорционально увеличению частоты возрастают:

а) интенсивность потока цифровых данных, а пропускные возможности интерфейсов не безгранич ны, особенно если записывается/воспроизводится одновременно несколько каналов;

б) вычислительная нагрузка на процессоры, а их возможности также ограничены;

в) объем памяти, необходимой для хранения сигнала в цифровой форме.

Поэтому, в зависимости от характера звука и требований, предъявляемых к его качеству и объему занимаемой памяти, выбирают некоторые компромиссные значения.

Например, при записи музыки на компакт-диски используются 16-битное кодирование при часто те дискретизации 44,032 кГц, при работе же с речью достаточно 8-битного кодирования при часто те 8 кГц.

Считается, что диапазон частот, которые слышит человек, составляет от 20 Гц до 20000 кГц.

Согласно теореме Найквиста-Котельникова, для того, чтобы аналоговый (непрерывный по времени) сигнал можно было точно восстановить по его отсчетам, частота дискретизации должна быть как минимум вдвое больше максимальной звуковой частоты. Таким образом, если реальный аналоговый сигнал, который мы собираемся преобразовать в цифровую форму, содержит частотные компоненты от 0 Гц до 20 кГц, то частота дискретизации такого сигнала должна быть не меньше, чем 40 кГц. Сегодня са мыми распространенными частотами дискретизации являются 44,1 кГц и 48 кГц. В последнее время выяснено, что обертоны, расположенные свыше 20 кГц, вносят немалый вклад в звучание. Поэтому появляются преобразователи, использующие частоты дискретизации 96 кГц и 192 кГц, а в недалеком будущем ожидается появление систем и с частотой 384 кГц.

Для записи и хранения звукового сигнала в цифровой форме требуется большой объем дискового пространства. Чем выше требования к качеству записываемого звука, тем больше должна быть ем кость носителя.

Например, стереофонический звуковой сигнал длительностью 60 с, оцифрованный с частотой дискретизации 44,1 кГц, при 16-разрядном квантовании для хранения потребует на около 10 Мб: (стереофонический) х 60 (с) х 44100 (ед/с) х 2 (байта) = 10 584 000 байт = 10 336 Кб = = 10,094 Мб.

Pages:     || 2 | 3 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.