WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 10 | 11 || 13 | 14 |   ...   | 27 |

«СБОРНИК ЛУЧШИХ РЕФЕРАТОВ БАО-ПРЕСС РИПОЛ КЛАССИК Москва 2004 ББК 74.202.5 С54 С54 Сборник лучших рефератов / Э. В. Велик, Т.И. Водолазская, О.В. Завязкнн, М П. Ильяшенко, А.А. Ильяшенко, С.А. ...»

-- [ Страница 12 ] --

Современное поколение является свидетелем стремительного развития науки и техники. За последние триста лет человечество прошло путь от простейших паровых машин до мощных атомных электростанций, овладело сверхзвуковыми скоростями полета, поставило себе на службу энергию рек, создало огромные океанские корабли и гигантские землеройные машины, заменяющие труд десятков тысяч землекопов. Запуском первого искусственного спутника Земли и полетом первого человека в космос люди проложили путь к освоению космического пространства. Однако до середины XX века почти все создаваемые че ловеком механизмы предназначались для выполнения хотя и весьма разнообразных, но в основном исполнительных функций. Их конструкция предусматривала всегда более или менее сложное управление, осуществляемое человеком, который должен оценивать внешнюю обстановку, внешние условия, наблюдать за ходом того или иного процесса и соответственно управлять машинами, движением транспорта и т. д. Область умственной деятельности, психики, сфера логических функций человеческого мозга казались до недавнего времени совершенно недоступными механизации. Рисуя картины жизни будущего общества, авторы фантастических рассказов и повестей чэг.о представляли, что всю 254 Информатика работу за человека будут выполнять машины, а роль человека сведется лишь к тому, чтобы, наблюдая за работой этих мащин, нажимать на пульте соответствующие кнопки, управляющие определенными операциями. Однако современный уровень развития радиоэлектроники позволяет ставить и разрешать задачи создания новых устройств, которые освободили бы человека от необходимости следить за производственным процессом и управлять им, т. е. заменили бы собой оператора, диспетчера. Появился новый класс машин — управляющие машины, способные выполнять самые разнообразные и часто весьма сложные задачи управления производственными процессами, движением транспорта и т. д. Создание управляющих машин позволяет перейти от автоматизации отдельных станков и агрегатов к комплексной автоматизации конвейеров, цехов, целых заводов. Вычислительная техника используется не только для управления технологическими процессами и решения многочисленных трудоемких научно-теоретических и конструкторских вычислительных задач, но и в сфере управления народным хозяйством, экономики и планирования. 1. ПОНЯТИЕ КИБЕРНЕТИКИ Существует большое количество различных определений понятия «кибернетика», однако все они сводятся к тому, что кибернетика — это наука, изучающая общие закономерности строения сложных систем управления и протекания в них процессов управления. Так как любые процессы управления связаны с принятием решений на основе получаемой информации, то кибернетику часто определяют еще и как науку об общих законах получения, хранения, передачи и преобразования информации в сложных управляющих системах. Появление кибернетики как самостоятельного научного направления относится к 1948 г., когда американский ученый, профессор математики Массачусетского технологического института Норберт Винер (1894—1964 гг.) опубликовал книгу «Кибернетика, или Управление и связь в животном и машине». В этой книге Винер обобщил закономерности, относящиеся к системам управления различной природы — биологическим, техническим и социальным. Вопросы управления в социальных системах были более подробно рассмотрены им в книге «Кибернетика и общество», опубликованной в 1954 г. Название «кибернетика» происходит от греческого «кк>бернетес», что первоначально означало «рулевой», «кормчий», но впоследствии стало обозначать и «правитель над людьми». Так, древнегреческий философ Платон в своих сочинениях в одних случаях называет кибернетикой искусство управления кораблем или колесницей, а в других — искусство править людьми. Примечательно, что римлянами слово «кюбернетес» было преобразовано в «губернатор». Известный французский ученый-физик А. М. Ампер (1775—1836 гг.) в своей работе «Опыт о философии наук, или Аналитическое изложение естественной классификации всех человеческих знаний», первая часть которой вышла в 1834 г., назвал кибернетикой науку о текущем управлении государством (народом), которая помогает правительству решать встающие перед ним конкретные задачи с учетом разнообразных обстоятельств в свете общей задачи обеспечить стране мир и процветание. Однако вскоре термин «кибернетика» был забыт и, как отмечалось ранее, возрожден в 1948 г. Винером в качестве названия науки об управлении техническими, биологическими и социальными системами. 2. РАЗВИТИЕ КИБЕРНЕТИКИ Становление и успешное развитие люээго научного направления связаны, с одной стороны, с накоплением достаточного количества знаний, на базе которых может развиваться данная наука, с другой — с потребностями общества в ее развитии. Поэтому неслучайно размышления о кибернетике Платона и Ампера не получили в свое чоемя дальнейшего развития и были, в сущности, забыты. Достаточно солидная научная база для становления кибернетики создавалась лишь в течение XIX—XX веков, а технологическая база непосредственно связана с развитием электроники за период послед-них 50—60 лет. Социальная потребность в развитии кибернетики на современной ступени общественного развития определяется прежде всего бурным ростом технологического уровня производства, в результате чего доля суммарных физических усилий человека и животных составляет в настоящее время менее 1% мирового энергетического баланса. Снижение данной величины обусловлено стремительным ростзм энерговооруженности работников физического труда, сопровождающимся и значительным повышением его производительности. Вместе с тем управление современной техникой 1ребует все больших затрат нервной энергии, а психофизические возможности человека ограничены, поэтому оказывается, что именно они в значительной степени ограничивали полноценное использование достижений технического прогресса. С другой стороны, в развитых странах доля работников умственного труда по отношению ко всем работающим приближается уже к 50%, причем дальнейшее возрастание ее является объективным законом общественного эазвития. А производительность умственного труда, в процессе которого до недавнего времени использовались лишь самые примитивные технические средства повышения его эффективности (арифмометры, конторские счеты, логарифмические линейки, пишущие машинки), практически оставалась на уровне XIX века. Если учитывать также непрерывное в t зрастание сложности технологических процессов, характеризующихся большим количеством разнообразных показателид, то становится ясным, что отсутствие механизации информационных процессов тормозит дальнейший научно-технический прогресс. Перечисленные факторы в совокупности и обусловили быстрое развитие кибернетики и ее технической базы - кибернетической техники. Необходимость или целесообразность замещения человека автоматом определяется одной из следующих причин. Во-первых, функционирование объекта управления может характеризоваться такими большими скоростями, что человек в силу нейрофизиологических ограничений скорости своей реакции не может достаточно быстро, в темпе функционирования объекта или, как принято говорит)), в реальном масштабе времени, осуществлять необходимые уг равляющие воздействия. Данное ограничение относится в той или иной мере, например, к процессам управления самолетами, космическими кораблями, ракетами, атомными и химическими реакциями. Во-вторых, управляющий автомат оказывается необходимым, когда управление должно осуществляться в тех мес Кибернетика тах, где присутствие человека либо невозможно, либо связано с большими трудностями и затратами (космические аппараты, другие планеты, опасные и вредные производственные помещения), а телеуправление по тем или иным причинам невозможно или нецелесообразно. В-третьих, в ряде производственных процессов автоматическое управление способно обеспечить более высокие показатели точности изготовления изделий и улучшение других качественных показателей. Наконец, в-четвертых, даже и в тех случаях, когда человек может успешно управлять некоторым производственным процессом, применение управляющих автоматов даст значительный экономический эффект за счет существенного снижения трудовых затрат. 3. ПРЕДМЕТ, МЕТОДЫ И ЦЕЛИ КИБЕРНЕТИКИ Специфика этой науки заключается в том, что она изучает не вещественный состав систем и не их структуру, а результат работы данного класса систем. В кибернетике впервые было сформулировано понятие «черного ящика» как устройства, которое выполняет определенную операцию над настоящим и прошлым входного потенциала, но для которого мы необязательно располагаем информацией о структуре, обеспечивающей выполнение этой операции. Кибернетика как наука об управлении объектом своего изучения имеет управляющие системы. Для того чтобы в системе могли протекать процессы управления, она должна обладать определенной степенью сложности. С другой стороны, осуществление процессов управления в системе имеет смысл только в том случае, если эта система изменяется, движется, т. е. если речь идет о динамической системе. Поэтому можно уточнить, что объектом изучения кибернетики являются сложные динамические системы. К сложным динамическим системам относятся и живые организмы (животные и растения), и социально-экономические комплексы (организованные группы людей, бригады, подразделения, предприятия, отрасли промышленности, государства), и технические агрегаты (поточные линии, транспортные средства, системы агрегатов). Однако, рассматривая сложные динамические системы, кибернетика не ставит перед собой задач всестороннего изучения их функционирования. Хотя кибернетика и изучает общие закономерности управляющих систем, их конкретные физические особенности находятся вне поля ее зрения. Так, при исследовании с позиций кибернетической науки такой сложной динамической системы, как мощная электростанция, мы не сосредоточиваем внимание непосредственно на вопросе о коэффициенте ее полезного действия, габаритах генераторов, физических процессах генерирования энергии и т. д. Рассматривая работу сложного электронного автомата, МЫ не интересуемся, на основе каких элементов (электромеханические реле, ламповые или транзисторные триггеры, ферритовые сердечники, полупроводниковые интегральные схемы) функционируют его арифметические и логические устройства, память и др. Нас интересует, какие логические функции выполняют эти устройства, как они участвуют в процессах управления. Изучая, наконец, с кибернетической точки зрения работу некоторого социального коллектива, мы не вникаем в биофизические и биохимические процессы, происходящие внутри организма индивидуумов, образующих этот коллектив. Изучением всех перечисленных вопросов занимаются механика, электротехника, физика, химия, биология. Предмет кибернетики составляют только те стороны функционирования систем, которыми определяется протекание в них процессов управления, т. е. процессов сбора, обработки, хранения информации и ее использования для целей управления. Однако когда те или иные частные физико-химические процессы начинают существенно влиять на процессы управления системой, кибернетика должна включать их в сферу своего исследования, но не всестороннего, а именно с позиций их воздействия на процессы управления. Таким образом, предметом изучения кибернетик!! являются процессы управления в сложных динамических системах. Всеобщим методом познания, в равной степени применимым к исследованию всех явлений природы и общественной жизни, служит материалистическая диалектика. Однако, кроме общефилософского метода, в различных областях науки применяется большое количество специальных методов. До недавнего времени в биологических и социальноэкономических науках современные математические методы применялись в весьма ограниченных масштабах. Только послед-ние десятилетия характеризуются значительным расширением использования в этих областях теории вероятностей и математической статистики, математической логики и теории алгоритмов, теории множеств и теории графов, теории игр и исследования операций, корреляционного анализа, математического программирования и других математических методов. Теория и практика кибернетики непосредственно базируются на применении математических методов при описании и исследовании систем и процессов управления, на построении адекватных им математических моделей и решении этих моделей на быстродействующих ЭВМ. Таким образом, одним из основных методов кибернетики является метод математического моделирования систем и процессов управления. Системы изучаются в кибернетике по их реакциям на внешние воздействия, другими словами, по тем функциям, которые они выполняют. Наряду с вещественным и структурным подходами, кибернетика ввела в научный обиход функциональный подход как вариант системного подхода в широком смысле слова. Применение системного и функционального подходов при описании и исследовании сложных систем относится к основным методологическим принципам кибернетики. Системный подход выражается в комплексном изучении системы с позиций системного анализа, т. е. анализа проблем и объектов как совокупности взаимосвязанных элементов, исходя из представлений об определенной целостности системы. Функциональный анализ имеет своей целью выявление и изучение функциональных последствий тех или иных явлений или событий для исследуемого объекта. Соответственно, функциональный подход предполагает учет результатов функционального анализа при исследовании и синтезе систем управления. Основная цель кибернетики как науки об управлении — добиваться построения на основе изучения структур и механизмов управления таких систем, такой организации их работы, такого взаимодействия элементов внутри этих систем и такого взаимодействия с внешней средой, чтобы результаты функционирования этих систем были наилучшими, т. е. приводили бы наиболее быстро к заданной цели функционирования при минимальных затратах тех или иных ресурсов (сырья, Л(рргии, человеческого труда, машинного времени, горючего 256 Информатика и т. д.). Все это можно определить кратко термином «оптимизация». Таким образом, основной целью кибернетики является оптимизация систем управления. Для исследования систем кибернетика использует три принципиально различных метода: математический анализ, физический эксперимент и вычислительный эксперимент. Первые два из них широко применяются и в других науках. Сущность первого метода состоит в описании изучаемого объекта в рамках того или иного математического аппарата (например, в виде системы уравнений) и последующего извлечения различных следствий из этого описания путем математической дедукции (например, путем решения соответствующей системы уравнений). Сущность второго метода состоит в проведении различных экспериментов либо с самим объектом, либо с его реальной физической моделью. Достижением кибернетики является разработка и широкое использование нового метода исследования, получившего название вычислительного или машинного эксперимента, иначе называемого математическим моделированием. Смысл его в том, что эксперименты производятся не с реальной физической моделью изучаемого объекта, а с его математическим описанием, реализованным в компьютере. Огромное быст-родействие современных компьютеров зачастую позволяет моделировать процессы в более быстром темпе, чем они происходят в действительности. нала, передающего информацию, не зависит 01 количества энергии, которая используется для передачи сиплла. Тем не менее энергия и информация связаны между собо1 Винер приводит такой пример: «Кровь, оттекающая от мозг;

;

, на долю градуса теплее, чем кровь, притекающая к нему». 5. МЕСТО КИБЕРНЕТИКИ В СИСТЕМЕ НАУК Внутри самой кибернетики существуе-. несколько основных направлений. Теоретическая кибернетика, подоб1 о математике, является, по существу, абстрактной наукой. Ни задача — разработка научного аппарата и методов исследования систем управления независимо от их конкретной прлроды. В теоретическую кибернетику вошли и получили дальнейшее развитие такие разделы прикладной математики, как теория информации и теория алгоритмов, теория игр, иссл;

глвание операций и др. Ряд проблем теоретической кибернетики разработан уже непосредственно в недрах этого научного нал давления, а именно: теория логических сетей, теория автоматов, теория формальных языков и грамматик, теория преобразователей информации и т. д. Теоретическая кибернетика включает гакже общеметодологические и философские проблемы этой науки. Прикладная кибернетика, в зависимости от типа изучаемых систем управления, подразделяется на техническую, биологическую и социальную кибернетику. Техническая кибернетика — наука об управлении техническими системами. Техническую кибернетику часто отождествляют с современной теорией автомат! 1ческого регулирования и управления. Эта теория, конечне, служит важной составной частью технической кибернетики, но последняя вместе с тем включает вопросы разработки и конструирования автоматов (в том числе современных ЭВМ и роботов), а также проблемы технических средств сбора, передачи, хранения и преобразования информации, опознания образов и т. д. Биологическая кибернетика изучает оощие законы хранения, передачи и переработки информации Б биологических системах. Биологическую кибернетику в спою очередь подразделяют на медицинскую, которая занимается главным образом моделированием заболеваний и использованием этих моделей для диагностики, прогнозирования и лечения;

физиологическую, изучающую и моделируюглую функции клеток и органов в норме и патологии;

нейрокибернетику, в которой моделируются процессы переработки информации в нервной системе;

психологическую, моделирующую психику на основе изучения поведения человека. Промежуточным звеном между биологической и технической кибернетикой является бионика — наука об использовании моделей биологических процессов и механизмов в качестве прототипов для совершенствования существующих и создания новых технических устройств. Социальная кибернетика — наука, в которой используются методы и средства кибернетики в целях исследования и организации процессов управления в социальных системах. Необходимо, однако, учитывать, что социальная кибернетика, изучающая закономерности управления обиеством в количественном аспекте, не может стать всеобъемлющей наукой об управлении обществом, характеризующим::! в значительно» мере неформализуеммми явлениями л процессами.

4. КИБЕРНЕТИКА И ИНФОРМАЦИЯ В исследовании кибернетикой способов связи и моделей управления ей понадобилось еще одно понятие, которое было давно известно, но впервые получило фундаментальный статус в естествознании — понятие информации (с латинского — ознакомление) как меры организованности системы в противоположность понятию энтропии как меры неорганизованности. Чтобы яснее стало значение информации, рассмотрим деятельность идеального существа, получившего название «демон Максвелла». Идею такого существа, нарушающего второе начало термодинамики, Максвелл изложил в «Теории теплоты», вышедшей в 1871 г.: «Когда частица со скоростью выше средней подходит к дверце из отделения А или частица со скоростью ниже средней подходит к дверце из отделения В, привратник открывает дверцу и частица проходит через отверстие;

когда же частица со скоростью ниже средней подходит из отделения А или частица со скоростью выше средней подходит из отделения В, дверца закрывается. Таким образом, в отделении А их концентрация уменьшается. Это вызывает очевидное уменьшение энтропии, и если соединить оба отделения тепловым двигателем, мы как будто получим вечный двигатель второго рода». Кибернетика выявляет зависимости между информацией и другими характеристиками систем. Работа «демона Максвелла» позволяет установить обратно пропорциональную зависимость между информацией и энтропией. С повышением энтропии уменьшается информация, и наоборот — понижение энтропии увеличивает информацию. Связь информации с энтропией свидетельствует и о связи информации с энергией. Энергия (от греческого energeia — деятельность) характеризует общую меру различных видов движения и взаимодействия в формах: механической, тепловой, электромагнитной, химической, гравитационной, ядерной. Точность сиг Кибернетика В связи с этим наибольшие практические успехи в современных условиях могут быть достигнуты в результате применения кибернетики в области управления экономикой, производственной деятельностью как важнейшими основами развития общества. Среди социальных подсистем именно экономика характеризуется наиболее развитой системой количественных показателей и соотношений. Сферой экономической кибернетики являются проблемы оптимизации управления экономикой в целом, его отдельными отраслями, экономическими районами, промышленными комплексами, предприятиями и т. д. В качестве основного метода экономической кибернетики используется экономико-математическое моделирование, позволяющее представить динамику развития производственно-экономических систем, разрабатывать меры по улучшению их структуры и методы экономического прогнозирования и управления. Основным направлением и одной из важнейших целей экономической кибернетики в настоящее время стала разработка теории построения и функционирования автоматизированных систем управления (АСУ). Необходимость создания АСУ обусловливается высокими темпами роста производства, углублением его специализации, расширением кооперирования предприятии, существенным увеличением числа межхозяйственных связей и их усложнением. В ходе развития этих процессов происходит снижение эффективности традиционных методов управления производством, возникает настоятельная необходимость привлечения на помощь руководителю кибернетической техники, т. е. создания систем управления «человек — машина» которые нашли реальное воплощение в виде АСУ. Особенности сельскохозяйственного производства (территориальная рассредоточенность, большая длительность производственных циклов, сильное влияние случайных факторов и др.) повышают значение АСУ в управлении им. Кибернетика — обобщающая наука, исследующая биологические, технические и социальные системы. Однако предметом ее исследования служат не все вопросы структуры и поведения этих систем, а только те из них, которые связаны с процессами управления. Следовательно, являясь междисциплинарной наукой, кибернетика не претендует на роль наддисциплинарной науки. Если, например, философия оперирует такими универсальными категориями, как материя, время, пространство, то кибернетика имеет дело непосредственно лишь с категорией информации, являющейся свойством особым образом организованной материи. Таким образом, место кибернетики в системе наук можно определить следующим образом. Кибернетика охватывает все науки, но не полностью, а лишь в той их части, которая относится к сфере процессов управления, связанных с этими науками и соответственно с изучаемыми ими системами. Философия же, объясняя эти закономерности, общие для всех наук, рассматривает наряду с ними и кибернетику как сферу действия общефилософских законов диалектического материализма. Каковы же основные философские проблемы, возникшие в связи с появлением и развитием кибернетики как нового научного направления? Это прежде всего вопрос о природе н свойствах информации как основной категории кибернетики, вопросы диалектики структуры и развития сложных систем, их иерархии, зависимости их свойств от количества элементов, взаимодействия с внешней средой. Ряд методологических и философских вопросов возникает в свяли с проблемами моделирования — о сущности, типах и свойствах материальных и идеальных моделей, их адекватности и границах применения. С задачами бионического моделирования и созданием универсальных кибернетических автоматов, роботов и искусственного интеллекта связана проблема о предельных возможностях таких систем и о сравнении возможностей переработки информации кибернетическими машинами и человеком. Создание автоматизированных человеко-машинных систем управления поднимает философские вопросы о роли человека в этих системах и о характере своеобразного симбиоза человека и машины.

6. РОЛЬ И ЗНАЧЕНИЕ КИБЕРНЕТИКИ Общее значение кибернетики заключается в следующих направлениях: 1. Философское значение, поскольку кибернетика дает новое представление о мире, основанное на роли связи, управления, информации, организованности, обратной связи и вероятности. 2. Социальное, поскольку кибернетика дает новое представление об обществе как организованном целом. 3. Общенаучное в трех смыслах: во-первых, потому что кибернетика дает общенаучные понятия, которые оказываются важными в других областях науки — понятия управления, сложнодинамической системы и тому подобное;

во-вторых, потому что дает науке но^ые методы исследования: вероятностные, стохастические, моделирования на ЭВМ и т. д.;

в-третьих, потому что на основе функционального подхода «сигнал/отклик» кибернетика формирует гипотезы о внутреннем составе и строении систем, которые затем могут быть проверены в процессе содержательного исследования. 4. Методологическое, определяющееся тем, что изучение функционирования более простых технических систем используется для выдвижения гипотез о механизме работы качественно более сложных систем с целью познания происходящих в них процессов — воспроизводства жизни, обучения и так далее. 5. Наиболее известно техническое значение кибернетики — создание на основе кибернетических принципов ЭВМ, роботов, ПЭВМ, породившее тенденцию кибернетизации и информатизации не только научного познания, но и всех сфер жизни. 7. КИБЕРНЕТИКА И КОМПЬЮТЕРЫ Из числа сложных технических преобразователей информации наибольшее значение имеют компьютеры. Компьютеры обладают свойством универсальности. Это означает, что любые преобразования буквенно-цифровой информации, которые могут быть определены произвольной конечной системой правил любой природы (арифметических, грамматических и др.), могут быть выполнены компьютером после введения в него составленной должным образом программы. Другим известным примером универсального преобразователя информации (хотя и основанного на совершенно иных принципах) является человеческий мозг. Свойство универсальности современных компьютеров открывает возможность моделирования г. их помощью любых других преобразователей информации, в том числе мыслительных процессов. Таким образом, с момен 258 Информатика та своего возникновения компьютеры представляют собой основное техническое средство, основной аппарат исследования, которым располагает кибернетика. Точно так же, как разнообразные машины и механизмы облегчают физический труд людей, компьютеры облегчают его умственный труд, заменяя человеческий мозг в его наиболее простых и рутинных функциях. Компьютеры действуют по принципу «да-нет», и этого достаточно для того, чтобы создать вычислительные машины, хотя и уступающие человеческому мозгу в гибкости, но превосходящие его по быстроте выполнения вычислительных операций. Аналогия между компьютерами и мозгом человека дополняется тем, что компьютеры как бы играют роль центральной нервной системы для устройств автоматического управления. Введенное в кибернетике понятие самообучающихся машин аналогично воспроизводству живых систем. И то, и другое подразумевает создание систем, подобных или идентичных родителю. Это относится как к машинам, так и к живым системам. Процесс воспроизводства — это всегда динамический процесс, включающий какие-то силы или их эквиваленты. Винер так сформулировал гипотезу воспроизводства, которая позволяет предложить единый механизм самовоспроизводства для живых и неживых систем: «Один из возможных способов представления этих сил состоит в том, чтобы поместить активный носитель специфики молекулы в частотном строении ее молекулярного излучения, значительная часть которого лежит, по-видимому, в области инфракрасных электромагнитных частот или даже ниже. Может оказаться, что специфические вещества (вирусы) при некоторых обстоятельствах излучают инфракрасные колебания, обладающие способностью содействовать формированию других молекул вируса из неопределенной магмы аминокислот и нуклеиновых кислот. Вполне возможно, что такое явление позволительно рассматривать как некоторое притягательное взаимодействие частот». Современные ЭВМ значительно превосходят те, которые появились на заре кибернетики. Еще Ю.лет назад специалисты сомневались, что шахматный компьютер когда-нибудь сможет обыграть приличного шахматиста, однако теперь он почти на равных сражается с чемпионом мира. То, что машина чуть было не выиграла у Каспарова за счет громадной скорости перебора вариантов (100 миллионов в секунду против двух у человека), остро ставит вопрос не только о возможностях компьютеров, но и о том, что такое человеческий разум. Предполагалось два десятилетия назад, что ЭВМ будут с годами все более мощными и массивными, но вопреки прогнозам крупнейших ученых были созданы персональные компьютеры, которые стали повсеместным атрибутом нашей жизни. В перспективе нас ждет всеобщая компьютеризация и создание человекоподобных роботов. Однако надо иметь в виду, что человек — не только логически мыслящее существо, но и творческое, и эта способность есть результат всей предшествующей эволюции. Если же будут построены не просто человекоподобные роботы, но и превосходящие его по уму, то это повод не только для радости, но и для беспокойства, связанного как с роботизацией самого человека, так и с проблемой возможного «буи fa машин», выхода их из-под контроля людей и даже порабощения ими человека. Конечно, в XX веке это была не более "ем далекая от реальности фантастика. 8. ПРИМЕНЕНИЕ КИБЕРНЕТИКИ МОДЕЛИРОВАНИЕ Благодаря развитию ЭВМ метод моделирования и стал основным инструментом кибернетики. Приме немые модели становятся все более масштабными: от модели функционирования предприятия и экономической отрасли до комплексных моделей управления биогеоценозами, эколого-экономических моделей рационального природопользезания в пределах целых регионов, до глобальных моделей. В 1972 г. на основе метода «системной динамики» Дж. Форрестера были построены первые так называемые «модели мира», нацеленные на выработку сценариев развития всего человечества в его взаимоотношениях с биосферой. Их недостатки заключались в чрезмерно з асокой степени обобщения переменных, характеризующих процессы, протекающие в мире;

отсутствии данных об особевностях и традициях различных культур и т. д. Однако это оказалось очень многообещающим направлением. Постепенно указанные недостатки преодолевались в процессе создания последующих глобальных моделей, которые принимали ВС'? более конструктивный характер, ориентируясь на расемстрение вопросов улучшения существующего эколого-эк комического положения на планете. М. Месаровичем и Э. Пестелем были построены глобальные модели на основе теории иерархических систем, а В. Леонтьевым — на основе разработанного им в экономике метода «затраты-выпуска». Дальнейший прогресс в глобальном моделировании ожидается на путях построения моделей, все более адекватных реальности, сочетающих в себе глобальные, региональные и локальные моменты. Простираясь на изучение все более сложньх систем, метод моделирования становится необходимым средством как познания, так и преобразования действительности. В настоящее время можно говорить о преобразовательной функции моделирования как об одной из основных, вылолняя которую, оно вносит прямой вклад в оптимизацию сложных систем. Преобразовательная функция моделирования способствует уточнению целей и средств реконструкции реат ьности. Свойственная моделированию трансляционная функция способствует синтезу знаний — задаче, имеющей первостепенное значение на современном этапе изучения мира. Прогресс в области моделирования следует ожидать не на пути противопоставления одних типов моделей другим, а на основе их синтеза. Универсальный характер моделирования на ЭВМ дает возможность синтеза самых ргзнообразных знаний, а свойственный моделированию на ЭВМ функциональный подход служит целям управления сложными системами.

ИСТОРИЯ СОЗДАНИЯ ПЕРСОНАЛЬНОГО КОМПЬЮТЕРА План t. История ЭВМ. 1.1. Развитие элементной базы компьютеров. 1.2. История вычислительных машин. 1.3. Появление персональных компьютеров. 2. Персональные компьютеры будущего (= 2010 год).

1. ИСТОРИЯ ЭВМ Развитие торговли и науки повлекло за собой увеличение потребности в вычислениях. Причем сами вычисления становились все сложнее и сложнее. Устный счет и простые приспособления не могли удовлетворить эти потребности. Поэтому многие математики и инженеры потратили годы труда на создание машин, облегчающих счет. Однако основным потребителем таких машине XX веке стали военные. Расчеты траекторий ракет и снарядов, обсчет аэродинамики самолетов, навигационные расчеты становились все сложнее, и делать их нужно было все быстрее. «Крестной матерью» вычислительной техники в современном ее понимании стала Вторая мировая война. Для расшифровки кодов шифровальной машины «Энигма», которой пользовались немецкие военно-морские силы для передачи секретных сообщений в Блечли-Парк, в Англии были собраны лучшие математики Великобритании и США. Они не только сумели создать дешифровальные машины, которые практически моментально расшифровывали коды «Энигмы», но и заложили основу для развития вычислительной техники в послевоенный период. После Второй мировой войны долгое время только военные были основными заказчиками работ по созданию вычислительных машин в силу их высокой стоимости. Но чем дальше продвигалась работа, чем совершеннее и дешевле становились созданные машины, тем больше появлялось среди заказчиков совершенно мирных организаций: научных институтов, университетов, метеорологических центров и пр. Но лишь с появлением персонального компьютера основным потребителем, финансирующим ученых и инженеров, стали обычные граждане. 1.1. Развитие элементной базы компьютеров В 1883 г. Томас Альва Эдисон, пытаясь продлить срок службы лампы с угольной нитью, ввел в ее вакуумный баллон платиновый электрод и положительное напряжение и выяснил, что в вакууме между электродом и нитью начинает протекать ток. Не найдя никакого объяснения столь необычному явлению, Эдисон ограничился тем, что подробно описал его, на всякий случай взял патент и отправил лампу на Филадельфийскую выставку. О ней в декабре 1884 г. в журнале «Инженеринг» была заметка «Явление в лампочке Эдисона». Американский изобретатель не распознал открытия исключительной важности (по сути, это было его единственное фундаментальное открытие — термоэлектронная эмиссия). Он не понял, что его лампа накаливания с платиновым электродом по существу была первой в мире электронной лампой.

Первым, кому пришла в голову мысль о практическом использовании «эффекта Эдисона», был английский физик Дж. А. Флеминг (1849-1945 гг.). Работая с 1882 г. консультантом эдисоновской компании в Лондоне, он узнал о «явлении» из первых уст — от самого Эдисона. Свой диод — двухэлектродную лампу — Флеминг создал в 1904 г. В октябре 1906 г. американский инженер Ли де Форест изобрел электронную лампу — усилитель, или аудион, как он ее тогда назвал, имевший третий электрод — сетку. Им был предложен принцип, на основе которого строились все дальнейшие электронные лампы, — управление током, протекающим между анодом и катодом, с помощью других вспомогательных элементов. В 1910 г. немецкие инженеры Либен, Рейне и Штраус сконструировали триод, сетка в котором выполнялась в форме перфорированного листа алюминия и помещалась в центре баллона, а чтобы увеличить эмиссионный ток, они предложили покрыть нить накала слоем окиси бария или кальция. В 1911 г. американский физик Ч. Д. Кулидж предложил применить в качестве покрытия вольфрамовой нити накала окись тория — оксидный катод — и получил вольфрамовую проволоку, которая осуществила переворот в ламповой промышленности. В 1915 г. американский физик Ирвинг Ленгмюр сконструировал двухэлектронную лампу — кенотрон, применяемую в качестве выпрямительной лампы в источниках питания. В 1916 г. ламповая промышленность стала выпускать особый тип конструкции ламп — генераторные лампы с водяным охлаждением. Идея лампы с двумя сотками — тетрода — была высказана в 1919 г. немецким физиком Вальтером Шоттки и независимо от него в 1923 г. — американцем Э. У. Халлом, а реализована эта идея англичанином X. Дж. Раундом во второй половине 20-х годов прошлого века. В 1929 г. голландские ученые Г. Хольст и Б. Теллеген создали электронную лампу с 3-мя сетками - пентод. В 1932 г. был создан гептод, в 1933 г. — гексод и пентагрид, в 1935 г. появились лампы в металлических корпусах.. Дальнейшее развитие электронных ламп шло по пути улучшения их функциональных характеристик, по пути многофункционального использования. В 1940—50-х годах компьютеры создавались на основе электронных ламп. Поэтому компьютеры были очень большими (они занимали огромные залы), дорогими и ненадежными, ведь электронные лампы, как и обычные лампочки, часто перегорают. Но в 1948 г. были изобретены транзисторы миниатюрные и недорогие электронные приборы, которые смогли заменить электронные лампы. Это привело к уменьше 260 Информатика пию размеров компьютеров в сотни раз и повышению их надежности. Первые компьютеры на основе транзисторов появились D конце 1950-х годов, а к середине 1960-х годов были созданы и значительно более компактные внешние устройства для компьютеров, что позволило фирме Digital Equipment выпустить в 1965 г. первый мини-компьютер PDP-8 размером с холодильник и стоимостью всего 20 тыс. долл. (для сравнения — компьютеры 1940—50-х годов обычно стоили миллионы долл.). После появления транзисторов наиболее трудоемкой операцией при производстве компьютеров было соединение и спайка транзисторов для создания электронных схем. Но в 1959 г. Роберт Нойс (будущий основатель фирмы Intel) изобрел способ, позволяющий создавать на одной пластине кремния транзисторы и все необходимые соединения между ними. Полученные электронные схемы стали называться интегральными схемами, или чипами. В 1968 г. фирма Burroughs выпустила первый компьютер на интегральных схемах, а в 1970 г. фирма Intel начала продавать интегральные схемы памяти. В дальнейшем количество транзисторов, которое удавалось разместить на единице площади интегральной схемы, увеличивалось приблизительно вдвое каждый год, что и обеспечивает постоянное уменьшение стоимости компьютеров и повышение их быстродействия. В середине 1960-х годов председатель Intel Gordon Moore вывел принцип, или закон, который остается верным уже больше трех десятилетий: количество транзисторов в каждом чипе кремниевой интегрированной микросхемы процессора удваивается каждые два года, и стоимость каждого чипа процессора уменьшается вдвое. Процессор 8086, выпущенный в 1978 г., содержал 29 тыс. транзисторов, 80386 (1985 г.) - 275 тыс., Pentium (1993 г.) 3.1 млн, Pentium !!! (1999 г.) - 18 млн, a Pentium 4 (2001 г.) - 42 млн транзисторов. тов производились человеком, а скорость его работы весьма ограничена. Еще в первой половине XIX в. английски! математик Чарльз Бэббидж попытался построить универсальное вычислительное устройство, то есть компьютер. Бэббидж называл его аналитической машиной. Именно Бэббидл: впервые додумался до того, что компьютер должен содержать память и управляться с помощью программы. Бэббидж дател построить свой компьютер как механическое устройство, а программы собирался задавать посредством перфокарт •- карт из плотной бумаги с информацией, наносимой с помощью отверстий (они в то время уже широко применялись в ткы.ких станках). Однако довести до конца эту работу Бэббидж не смог: она оказалась слишком сложной для техники того иремени. Первым реализовал идею перфокарт Холл зрит. Он изобрел машину для обработки результатов переписи населения. В своей машине он впервые применил электричество для расчетов. В 40-х годах XX в. сразу несколько rpyni исследователей повторили попытку Бэббиджа на основе техники XX в. — электромеханических реле. Некоторые из этих исследователей ничего не знали о работах Бэббиджа и перготкрыли его идеи заново. Первым из них был немецкий ивкенер Конрад Цузе, который в 1941 г. построил небольшой бомпьютер на основе нескольких электромеханических реле. Но из-за войны работы Цузе не были опубликованы. А в CEIA в 1943 г. на одном из предприятий фирмы IBM (International Business Machines Corporation) американец Говард Эйкея создал более мощный компьютер под названием «Марк-1». Он уже проводил вычисления в сотни раз быстрее, чем вручную (с помощью арифмометра) и реально использовался для вое я ы х расчетов. В нем использовалось сочетание электрических с чгналов и механических приводов. «Марк-1» имел размеры 15x2,5 м и содержал 750 000 деталей, он мог перемножить два 23-разрядных числа за 4 с. Однако электромеханические реле работают весьма медленно и недостаточно надежно. Поэтому начик;

ш с 1943 г. в США группа специалистов под руководством Длона Мочли и Преспера Экерта начала конструировать компьютер ENIAC на основе электронных ламп. Созданный ими компьютер работал в тысячу раз быстрее, чем «Марк-1?. Но обнаружилось, что большую часть времени этот компьютер простаивал, вел> для задания метода расчетов (программы) в этом компьютере приходилось в течение нескольких часов или даже нескольких дней подсоединять нужным образом провода. А сам расчет после этого мог занять всего лишь несколько минут или даже секунд. Чтобы упростить и ускорить процесс задания программ, Мочли и Экерт стали конструировать новый компьютер, который мог бы хранить программу в своей памяти. В 1945 г. к работе был привлечен знаменитый математик Джон фон Нейман, который подготовил доклад об этом компьютере. Доклад был разослан многим ученым и стал широко известен, поскольку в нем фон Нейман ясно и просто сформулировал общие принципы функционирования компьютеров, т. е. универсальных вычислительных устройств. И до сих пор подавляющее большинство компьютеров сделано в соответствии с теми принципами, которые изложил в своем докладе в (945 г. Джон фон Нейман. Первый компьютер, в котором были воплощены принципы фон Неймана, был построен в 1949 г. английским исследователем Морисом Уилксом. Разработка первой электронной серийной машины UNIVAC (Universal Automatic Computer) начат;

, примерно и 1.2. История вычислительных машин Первым устройством, предназначенным для облегчения вычислений, стали счеты. С помощью костяшек счетов можно было совершать операции сложения и вычитания и несложные умножения. Однако счеты совершенно непригодны для операций над нецелыми числами и не могут производить сложных операций. А потребности человечества в вычислениях все увеличивались. В 1642 г. французский математик Блез Паскаль сконструировал первую механическую счетную машину «Паскалина», которая могла механически выполнять сложение чисел. В 1673 г. Готфрид Вильгельм Лейбниц сконструировал арифмометр, позволяющий механически выполнять четыре арифметических действия. Начиная с XIX в. арифмометры получили очень широкое применение. На них выполняли даже очень сложные расчеты, например расчеты баллистических таблиц для артиллерийских стрельб. Существовала и специальная профессия — счетчик — человек, работающий с арифмометром, быстро и точно соблюдающий определенную последовательность инструкций (такую последовательность инструкций впоследствии стали называть программой). Но многие расчеты производились очень медленно — даже десятки счетчиков должны были работать по нескольку недель и месяцев. Причина проста: при таких расчетах выбор выполняемых действий и запись результа История создания персонального компьютера 1947 г. Экертом и Мочли, основавшими в декабре того же года фирму ECKERT-MAUCHLI. Первый образец машины (UNIVAC-1) был построен для бюро переписи США и пущен в эксплуатацию весной 1951 г. Синхронная, последовательного действия вычислительная машина UNIVAC-1 создана на базе ЭВМ ENIAC и EDVAC. Работала она с тактовой частотой 2.25 МГц И содержала около 5000 электронных ламп. Внутреннее запоминающее устройство с емкостью 1000 12-разрядных десятичных чисел было выполнено на 100 ртутных линиях задержки. Вскоре после ввода в эксплуатацию машины UNIVAC-1 ее разработчики выдвинули идею автоматического программирования. Она сводилась к тому, чтобы машина сама могла подготавливать такую последовательность команд, которая нужна для решения данной задачи. Сильным сдерживающим фактором в работе конструкторов ЭВМ начала 1950-х годов было отсутствие быстродействующей памяти. По словам одного из пионеров вычислительной техники Д. Эккерта, «архитектура машины определяется памятью». Исследователи сосредоточили свои усилия на запоминающих свойствах ферритовых колец, нанизанных на проволочные матрицы. В 1951 г. Дж. Форрестер опубликовал статью о применении магнитных сердечников для хранения цифровой информации. В машине «Whirlwind-1 о впервые была применена память на магнитных сердечниках. Она представляла собой 2 куба 32 х 32 х 17 с сердечниками, которые обеспечивали хранение 2048 слов для 16-разрядных двоичных чисел с одним разрядом контроля на четность. В разработку электронных компьютеров включилась фирма IBM. В 1952 г. она выпустила свой первый промышленный электронный компьютер IBM 701, который представлял собой синхронную ЭВМ параллельного действия, содержащую 4000 электронных ламп и 12 000 германиевых диодов. Усовершенствованный вариант машины IBM 704 отличался высокой скоростью работы, в ней использовались индексные регистры и данные представлялись в форме с плавающей запятой. После ЭВМ IBM 704 была выпущена машина IBM 709, которая в архитектурном плане приближалась к машинам второго и третьего поколений. В этой машине впервые была применена косвенная адресация и впервые появились каналы ввода-вывода. В 1956 г. фирмой IBM были разработаны плавающие магнитные головки на воздушной подушке. Изобретение их 1 позволило создать новый тип памяти — дисковые запоминающие устройства (ЗУ), значимость которых была в полной мере оценена в последующие десятилетия развития вычислительной техники. Первые ЗУ на дисках появились в машинах IBM 305 и RAMAC. Последняя имела пакет, состоявший из 50 металлических дисков с магнитным покрытием, которые вращались со скоростью 12 000 об./мин. На поверхности диска размещалось 100 дорожек для записи данных, по 10 000 знаков каждая. Вслед за первым серийным компьютером UNIVAC-1 фирма Remington-Rand в 1952 г. выпустила ЭВМ UNIVAC-1103, которая работала в 50 раз быстрее. Позже в компьютере UNIVAC-1103 впервые были применены программные прерывания. Сотрудники фирмы Rernington-Rand использовали алгебраическую форму записи алгоритмов под названием «Short Code» (пррвый интерпретатор, созданный R 1949 г. Джоном Мочли). Кроме того, необходимо отметить офицера ВМФ США и руководителя группы программистов, в то время капитана (в дальнейшем единственная в ВМФ женщина-адмирал) Грейс Хоппер, которая разработала первую программу-компилятор. Кстати, термин «компилятор» впервые ввела Г. Хоппер в 1951 г. Эта компилирующая программа производила трансляцию на машинный язык всей программы, записанной в удобной для обработки алгебраической форме. Г. Хоппер принадлежит также авторство термина «баг» в применении к компьютерам. Как-то через открытое окно в лабораторию залетел жук (по-английски — bug), который, сев на контакты, замкнул их, чем вызвал серьезную неисправность в работе машины. Обгоревший жук был подклеен в административный журнал, где фиксировались различные неисправности. Так был задокументирован первый баг в компьютерах. Фирма IBM сделала первые шаги в области автоматизации программирования, создав в 1953 г. для машины IBM 701 «Систему быстрого кодирования». В СССР А. А. Ляпунов предложил один из первых языков программирования. В 1957 г. группа под руководством Д. Бэкуса завершила работу над ставшим впоследствии популярным первым языком программирования высокого уровня, получившим название ФОРТРАН. Язык, реализованный впервые на ЭВМ IBM 704, способствовал расширению сферы применения компьютеров. В Великобритании в июле 1951 г. на конференции в Манчестерском университете М. Уилкс представил доклад «Наилучший метод конструирования автоматической машины», который стал пионерской работой по основам микропрограммирования. Предложенный им метод проектирования устройств управления нашел широкое применение. Свою идею микропрограммирования М. Уилкс реализовал в 1957 г. при создании машины EDSAC-2. М. Уилкс совместно с Д. Уиллером и С. Гиллом в 1951 г. написали первый учебник по программированию «Составление программ для электронных счетных машин». В 1956 г. фирма Ferranti выпустила ЭВМ «Pegasus», в которой впервые нашла воплощение концепция регистров общего назначения (РОН). С появлением РОН было устранено различие между индексными регистрами и аккумуляторами, и в распоряжении программиста оказался не один, а несколько регистров-аккумуляторов.

1,3. Появление персональных компьютеров Вначале микропроцессоры использовались в различных специализированных устройствах, например в калькуляторах. Но в 1974 г. несколько фирм объявили о создании на основе микропроцессора Intel-8008 персонального компьютера, т. е. устройства, выполняющего те же функции, что и большой компьютер, но рассчитанного на одного пользователя. В начале 1975 г. появился первый коммерчески распространяемый персональный компьютер «Альтаир-8800» на основе микропроцессора Intel-8080. Этот компьютер продавался по цене около 500 долл. И хотя возможности его были весьма ограничены (оперативная память составляла всего 256 байт, клавиатура и экран отсутствовали), его появление было встречено с большим энтузиазмом: в первые же месяцы было продано несколько тысяч комплектов машины. Покупатели снабжали этот компьютер дополнительными устройствами: монитором для вывода информации, клавиатурой, блоками расширения памяти и т. д. Вскоре эти устройства стали выпускаться другими фирмами. В конце 1975 г.

262 Информатика Пол Аллен и Билл Гейтс (будущие основатели фирмы Microsoft) создали для компьютера «Альтаир» интерпретатор языка Basic, что позволило пользователям достаточно просто общаться с компьютером и легко писать для него программы. Это также способствовало росту популярности персональных компьютеров. Успех «Альтаир-8800» заставил многие фирмы также заняться производством персональных компьютеров. Персональные компьютеры стали продаваться уже в полной комплектации, с клавиатурой и монитором, спрос на них составил десятки, а затем и сотни тысяч штук в год. Появилось несколько журналов, посвященных персональным компьютерам. Росту объема продаж весьма способствовали многочисленные полезные программы практического значения. Появились и коммерчески распространяемые программы, например программа для редактирования текстов WordStar и табличный процессор VisiCalc (1978 г. и 1979 г. соответственно). Эти и многие другие программы сделали покупку персональных компьютеров весьма выгодной для бизнеса: с их помощью стало возможно выполнять бухгалтерские расчеты, составлять документы и т. д. Использование же больших компьютеров для этих целей было слишком дорого. В конце 1970-х годов распространение персональных компьютеров даже привело к некоторому снижению спроса на большие компьютеры и мини-компьютеры (мини-ЭВМ). Это стало предметом серьезного беспокойства фирмы IBM — ведущей компании по производству больших компьютеров, и в 1979 г. фирма IBM решила попробовать свои силы на рынке персональных компьютеров. Однако руководство фирмы недооценило будущую важность этого рынка и рассматривало создание персонального компьютера всего лишь как мелкий эксперимент — что-то вроде одной из десятков проводившихся в фирме работ по созданию нового оборудования. Чтобы не тратить на этот эксперимент слишком много денег, руководство фирмы предоставило подразделению, ответственному за данный проект, невиданную в фирме свободу. В частности, ему было разрешено не конструировать персональный компьютер «с нуля», а использовать блоки, изготовленные другими фирмами. И это подразделение сполна использовало предоставленный шанс. В качестве основного микропроцессора компьютера был выбран новейший тогда 16-разрядный микропроцессор Intel-8088. Его использование позволило значительно увеличить потенциальные возможности компьютера, так как новый микропроцессор позволял работать с 1 мегабайтом памяти, а все имевшиеся тогда компьютеры были ограничены 64 килобайтами. В августе 1981 г. новый компьютер под названием IBM PC был официально представлен публике, и вскоре после этого он приобрел большую популярность у пользователей. Через пару лет компьютер IBM PC занял ведущее место на рынке, вытеснив модели 8-битовых компьютеров. Секрет популярности IBM PC в том, что фирма IBM не сделала свой компьютер единым неразъемным устройством и не стала защищать его конструкцию патентами. Наоборот, она собрала компьютер из независимо изготовленных частей и не стала держать спецификации этих частей и способы их соединения в секрете. Напротив, принципы конструкции IBM PC были доступны ъсеу. желающим. Этот подход, называемый принципом открытой архитектуры, обеспечил потрясающий успех компьютеру IBM PC, хотя и лишил фирму IBM возможности единолично пользоваться плодами этого успеха. Вот как открытость архитектуры IBM PC повлияла на развитие персональных компьютеров. Перспективность и популярность IBM PC сделала весьма привлекательным производство различны;

;

комплектующих и дополнительных устройств для IBM PC. Конкуренция между производителями привела к удешевлению комплектующих и устройств. Очень скоро многие фирмы перестали довольствоваться ролью производителей комплектующих для IBM PC и начали сами собирать компьютеры, совместимые с IBM PC. Поскольку этим фирмам не требовалось нести огромные издержки фирмы IBM на исследования и поддержание структуры громадной фирмы, они смогли продавать свои компьютеры значительно дешевле (иногда в 2—3 раза) аналогичных компьютеров фирмы IBM. Совместимые с IBM PC компьютеры вначале презрительно называли «клонами», но эта кличка не прижилась, так как многие фирм о [-производители IBM PC-совместимых компьютеров стали реализовывать технические достижения быстрее, чем сама IBM. Пользователи получили возможность самостоятельно модернизировать свои компьютеры и оснащать их дополнительными устройствами сотен различных производителей.

2. ПЕРСОНАЛЬНЫЕ КОМПЬЮТЕРЫ БУДУЩЕГО (= 2010 ГОД) Основой компьютеров будущего станут не кремниевые транзисторы, где передача информации осуще -"вляется электронами, а оптические системы. Носителем информации станут фотоны, так как они легче и быстрее эле в тронов. В результате компьютер станет более дешевым и 5 злее компактным. Но самое главное, что оптоэлектронное з лчисление гораздо быстрее, чем то, что применяется сегодня, поэтому компьютер будет намного производительнее. ПК будет мал по размерам и иметь мощь современных суперкомпьютеров. ПК станет хранилищем информации, охватывающей все аспекты нашей повседневной жязни, он не будет привязан к электрическим сетям. Этот ПК будет защищен от воров благодаря биометрическому сканеру, юторый будет узнавать своего владельца по отпечатку пальца Основным способом общения с компьютером будет голосовой. Настольный компьютер превратится Е СТОЛ, вернее, последний превратится в гигантский компьютерный экран — интерактивный фотонный дисплей. Клавиатура не понадобится, так как все действия можно будет совершите прикосновением пальца. Но для тех, кто предпочитает клавиатуру, в любой момент на экране может быть создана виртуальная клавиатура и удалена тогда, когда в ней не будет нужды. Компьютер станет операционной системой дома, и дом начнет реагировать на потребности хозяина, будет знать его предпочтения (приготовить кофе в 7 часов, запустить любимую музыку, записать нужную телепередачу, отрегулировать температуру и влажность и т. д.) Жесткий диск будет голографическим и чем-то будет походить на CD-ROM или DVD. То есть это будет прозрачная вращающаяся пластинка с записывающим лазером с одной стороны и считывающим лазером с другой;

объем хранимой информации на таком диске будет достигать просто астрономических величин — несколько терабайт. При таких объемах можно будет хранить каждую мс/ ьчайшую деталь жизни.

История создания персонального компьютера Процессор ПК будущего будет функционировать по тем же принципам, что и сегодня. Но вместо электронных микропроцессоров, которые являются и мозгом, и мускулами современного компьютера, процессор будущего будет иметь оптоэлектронные интегральные схемы (чипы будут использовать кремний там, где требуется переключение, и оптику для коммуникаций). Это даст огромный прирост в быстродействии и эффективности. Сегодняшний компьютер тратит слишком много времени на ожидание данных для обработки. Мгновенная оптическая связь и память, работающая так же быстро, как и процессор, обеспечат непрерывный поток данных процессору для обработки. При передаче данных со скоростью, не ограниченной больше электронной передачей, можно будет достигнуть частот порядка 100 ГГц, то есть в 100 раз быстрее, чем сегодня. Процессор будущего может быть шестигранником, окруженным со всех сторон быстрым кэшем так, чтобы требуемые данные могли быть выбраны из ближайшей части кэша. Именно таким образом и будет достигнута производительность сегодняшних супер-ЭВМ При применении оптической связи в компьютерных технологиях будет получен тот самый эффект, который наблюдали в 1980 г., когда компьютеры на базе 80286 имели память, работающую на частоте процессора. Скорость шины памяти — та скорость, с которой происходит обмен данными между процессором и памятью, — была равна частоте процессора (всего 8 МГц). Процессор получал данные так же быстро, как мог их обработать, в результате процессор меньше находился в режиме ожидания данных. Средний компьютер сегодня имеет процессор 1000 МГц и шину 133 МГц. Несмотря на различные технологические подвиги, процессор все еще тратит две трети времени на ожидание данных. Оптоэлектроника решит эту проблему. При должным образом разработанной шине оптической памяти скорость выборки данных из памяти будет снова приравнена к частоте процессора. Конечно, это потребует более быстрой обработки данных в памяти и, соответственно, другой, более быстрой, архитектуры памяти, которая, к счастью, уже есть или в скором времени будет. Большой кэш сверхбыстрой энергонезависимой магнитной RAM (память с произвольным доступом) будет содержать данные, срочно требующиеся процессору. Для нового быстрого кэша придется избавиться от неэффективности сегодняшней синхронной динамической памяти, нуждающейся в постоянном обновлении. Неэффективность кэша сегодня такова, что две трети времени уходит на процессы обновления (таким образом, его реальная производительность в три раза меньше). Полупроводниковая технология будущего будет основана не на кремниевой памяти, а на магнитной памяти в молекулярном масштабе. Так как мельчайшие элементы будут намагничены для представления нулей и размагничены для представления единиц, информация может быть легко и быстро обновлена простым электрическим сигналом. Весь процесс будет гораздо быстрее того, что мы имеем сегодня, и будет вполне реально удовлетворять требования процессора, работающего на частоте 100 ГГц. Основная память компьютера будет вполне оптической, фактически голографической. Голографическая память имеет трехмерную природу, и можно эшелонировать любое количество плоскостей памяти в прямоугольное твердое тело. Объем чипа в 256 ГБ легко достижим. Компьютер будущего будет практически независим от источников электропитания. Одно из самых больших преимуществ фотонных цепей — крайне малое энергопотребление. Небольшая, но длинная, подобная стержню литиевая батарея, изогнутая в тороид и установленная в компьютер, будет функционировать пару недель. А подзарядить ее можно будет так же легко, как сегодня подзарядить сотовый телефон. Размер экрана не будет играть никакой роли в компьютерах будущего. Он может быль большим, как ваш рабочий стол, или маленьким. Большие варианты компьютерных экранов будут основаны на жидких кристаллах, возбуждаемых фотонным способом, которые будут иметь гораздо более низкое энергопотребление, чем сегодняшние LCD-мониторы. Цвета будут яркими, а изображения — точными (возможны плазменные дисплеи). Фактически сегодняшняя концепция «разрешающей способности» будет в значительно степени атрофирована.

264 Информатика ИЗ ЧЕГО СОСТОИТ ПЕРСОНАЛЬНЫЙ КОМПЬЮТЕР План 1. Материнская плата. 2. Процессор. 3. Основные характеристики центрального процессора. 4. Системная шина. 5. Порты. 5.1. Параллельные порты (LPT). 5.2. Последовательные порты (СОМ). 5.3. Порт PS/2. 5.4. Порт USB. 5.5. Порт FireWire. 6. Видеокарта. 7. Звуковая карта.

Внутри системного блока размещаются основные внутренние компоненты компьютера: — материнская плата;

— платы адаптеров (звуковая, видео- и сетевая карты);

— процессор;

— дисковые накопители;

— блок питания;

— соединительные шлейфы, шнуры и кабели;

— вентилятор системы охлаждения внутренних элементов;

— вентилятор и радиатор системы охлаждения процессора;

— слоты системной шкны. Так как многие компоненты могут быть интегрированы на материнской плате, то не все они могут быть представлены как отдельные комплектующие элементы. Задняя панель, как правило, содержит панели плат расширений с разъемами, заглушки разъемов, вентиляционное отверстие вентилятора блока питания. 1. МАТЕРИНСКАЯ ПЛАТА Материнская плата является своеобразным «фундаментом» для всех комплектующих компьютера. Именно в нее втыкаются все основные устройства: видеокарта, оперативная память, процессор, жесткие диски и т. д. Другими словами, это платформа, на которой строится вся остальная конфигурация компьютера. На материнских платах также встречаются интегрированные устройства, т. е. встроенные. Материнские платы подобного типа уже продолжительное время фигурируют на компьютерном рынке. Примером могут служить материнские платы со встроенной звуковой и видеокартами. Устройства интегрируются на материнскую плату с целью удешевления общей стоимости компьютера. Действительно, стоимость чипа плюс затраты на инженерные разработки по интеграции значительно меньше, чем стоимость разработки и изготовления отдельной полноценной платы расширения. Однако интегрированные решения имеют свои недостатки. Это, во-первых, невозможность модернизации D будущем. А во-вторых, такие решения имеют среднюю производительность.

Тип и характеристики различных элементов и устройств материнской платы, как правило, огределяются типом и архитектурой процессора. Именно профессор или процессоры, их семейство, тип, архитектура и игнолнение определяют тот или иной вариант архитектурного исполнения материнской платы. Материнские платы изготавливают, делая главный упор на наилучшую совместимость именно с процессорами. В настоящее время существует две альтернативные архитектуры процессоров и соответственно матер;

неких плат для них — от компании Intel (Slot I, Slot 2, Socket 31Э, Socket 478) и от компании AMD (Slot A, Socket А). Первая поддерживает процессоры Intel Pentium II, Pentium "I, Celeron и Pentium 4, a вторая — AMD Athlon и Duron. Процессор одной архитектуры невозможно использовать в материнских платах, рассчитанных для другой. По числу процессоров, составляющих ца тральный процессор, различают однопроцессорные и мно опроцессорные (мультипроцессорные) материнские платы. Большинство персональных компьютеров являются однопроцессорными системами и комплектуются однопроцессорными материнскими платами. На вид и комплектацию материнских плат влияют также требуемые эксплуатационные характеристики и будущее назначение компьютера.

2. ПРОЦЕССОР Что же такое процессор? Процессор — эго «мозг» компьютера. Процессором называется устройство, способное обрабатывать программный код и определяющее основные функции компьютера по обработке информации. Конструктивно процессоры могут выполниться как в виде одной большой монокристальной интегральной микросхемы — чипа, так и в виде нескольких'микросхем, блоков электронных плат и устройств. Чаще всего процессор представлен в виде чипа, расположенного на материнской плате. На самом чипе написана его марка, его тактовая частота (число возможных операций, которые он может выполнить в единицу времени) и изготовитель.

Из чего состоит персональный компьютер В настоящее время микропроцессоры и процессоры вмещают в себе миллионы транзисторов и других элементов электронной логики и представляют сложнейшие высокотехнологичные электронные устройства. Персональный компьютер содержит в своем составе довольно много различных процессоров. Они входят в состав систем ввода/вывода контроллеров устройств. Каждое устройство, будь то видеокарта, системная шина или еще что-либо, обслужизается своим собственным процессором или процессорами. Однако архитектуру и конструктивное исполнение персонального компьютера определяет процессор или процессоры, контролирующие и обслуживающие системную шину и оперативную память, а также, что более важно, выполняющие объектный код программ. Такие процессоры принято называть центральными или главными процессорами (Central Point Unit — CPU). На основе архитектуры центральных процессоров строится архитектура материнских плат и проектируется архитектура и конструкция компьютера. переименованный в SC242. В этот же слот устанавливались и некоторые процессоры Celeron и Pentium !!!. Для слота 1 (SC242) предназначены процессоры с разными названиями «упаковки»: — SECC — картридж процессоров Pentium II и Pentium Ш. Представляет собой печатную плату с установленными компонентами. К микросхемам прилегает термопластина, распределяющая тепло, к которой снаружи крепится вентилятор (или иное охлаждающее устройство). Спереди картридж закрыт крышкой;

— SECC 2 — картридж для тех же процессоров. От предыдущего отличается тем, что не имеет термопластины — внешние «холодильники» прижимаются прямо к корпусам микросхем, что снижает тепловое сопротивление и повышает эффективность охлаждения;

— SEPP (Single Edge Processor Package) - картридж процессоров Celeron, не имеющий ни термопластины, ни крышки. Внешний радиатор прижимается прямо к корпусу процессора. Тактовая частота процессора определяет минимальный квант времени, за который процессор выполняет некоторую условную элементарную операцию. Тактовые частоты измеряются в мегагерцах и определяют количественные характеристики производительности компьютерных систем в целом. Чем больше (выше) тактовая частота, тем быстрее работает центральный процессор. В настоящее время технология производства центральных процессоров с высокой производительностью предусматривает их работу на очень высоких тактовых частотах (до 3 ГГц), вследствие чего устройства необходимо принудительно охлаждать. Для принудительного охлаждения процессоров используются пассивные системы — в виде радиаторов и активные системы — в виде радиаторов с вентиляторами. Процессоры оснащаются внутренними схемами умножения базовой тактовой частоты материнской платы и умножают исходную тактовую частоту в несколько раз. Однако все остальные устройства работают на базовой тактовой частоте. Тактирующий генератор расположен на материнской плате, а тактовая частота центрального процессора определяет его максимальные возможности работать на соответствующей частоте. Таким образом, тактовая частота процессора — это еще не все. Существует тактовая частота системной шины, которая отвечает за передачу информации от одного устройства к другому. Естественно, что чем выше тактовая частота системной шины, тем быстрее будет передаваться информация между устройствами. К устройствам также относится и процессор. В настоящее время процессорами поддерживаются частоты внешней шины 66 МГц, 100 МГц и 133 МГц, а для процессоров Pentium 4 — 400 и 533 МГц. Большое значение в общей технологии производства компьютерных систем имеет вопрос согласования возможностей и внутренних интерфейсов центрального процессора и набора интегральных микросхем — чипа, на базе которого построена материнская плата. Правильное их сочетание может резко повысить общую производительность, и наоборот. Поэтому рекомендуется устанавливать на материнские платы процессоры, указанные в руководстве фирмы-производителя платы. Технологии производства центральных процессоров постоянно совершенствуются.

3. ОСНОВНЫЕ ХАРАКТЕРИСТИКИ ЦЕНТРАЛЬНОГО ПРОЦЕССОРА Основными считаются следующие характреистики: — тип архитектуры или серия (CISC, Intel х86, RISC);

— система поддерживаемых команд (х86, IA-32, IA 64);

— расширения системы команд (ММХ, SSE, SSE2, 3Dnow!);

— конструктивное исполне?ше (Slot I, Slot 2, Socket 340, Socket 478, Slot A, Socket A);

— тактовая частота (МГц, ГГц);

— частота системной шины. Компьютеры, содержащие процессоры, поддерживающие систему команд Intel x86 (фирм Intel, AMD, Cyrix, Transmeta), на которых может исполняться операционная система Microsoft Windows, называются Wmtel-компыотерами (от Windows и Intel). Тип архитектуры, как правило, определяется фирмойпроизводителем оборудования. Все крупнейшие фирмы, производящие электронное оборудование для Wintel-совместимых компьютеров и выпускающие свои типы центральных процессоров, вносят изменения в базовую архитектуру процессоров серии Intel x86 или разрабатывают свою. С типом архитектуры тесно связан набор поддерживаемых команд или инструкций и их расширений. Эти два параметра, в основном, определяют качественный уровень возможностей персонального компьютера и в большой степени — уровень его производительное:™. Все современные процессоры имеют специальные системы команд, ^дополняющие набор инструкций Intel x86. Они рассчитаны на обработку графической и видеоинформации. Набор ММХ (MultiMedia extension) поддерживается всеми х86-совместимь:ми процессорами. SSE появился в процессорах Pentium !!!, a SSE2 — в процессорах Pentium 4. 3Dnow! — фирменная технология фирмы AMD, используется в ее процессорах. В настоящем время процессоры конструктивно изготовляют в виде квадратной микросхемы в корпусе PPGA (Plastic Pin Grid Array), со множеством ножек в нижней части (конструктив Socket). Для процессоров Pentium II был разработан Slot 1 — щелевой разъем с 242 контактами, впоследствии 266 Информатика 4. СИСТЕМНАЯ ШИНА Системная шина — это «паутина», соединяющая между собой все устройства и отвечающая за передачу информации между ними. Расположена она на материнской плате и внешне не видна. Системная шина — это набор проводников (металлизированных дорожек на материнской плате), по которым передается информация в виде электрических сигналов. Чем выше тактовая частота системной шины, тем быстрее будет осуществляться передача информации между устройствами и, как следствие, увеличится общая производительность компьютера, т. е. повысится скорость компьютера. В персональных компьютерах используются системные шины стандартов ISA, EISA, VESA, VLB и PCI. ISA, EISA, VESA и VLB, которые в настоящее время являются устаревшими и не выпускаются на современных материнских платах. Сегодня самой распространенной является шина PCI. Существуют и специализированные шины, например внутренние шины процессоров или шина для подключения видеоадаптеров — AGP. Все стандарты различаются как по числу и использованию сигналов, так и по протоколам их обслуживания. Шина входит в состав материнской платы, на которой располагаются ее проводники и разъемы (слоты) для подключения плат адаптеров устройств (видеокарты, звуковые карты, внутренние модемы, накопители информации, устройства ввода/вывода и т. д.) и расширений базовой конфигурации (дополнительные пустующие разъемы). Существуют 16- и 32-разрядные, высокопроизводительные (VESA, VLB, AGP и PCI с тактовой частотой более 16 МГц) и низкопроизводительные (ISA и EISA с тактовой частотой 8 и 16 МГц) системные шины. Также шины, разработанные по современным стандартам (VESA, VLB и PCI), допускают подключение нескольких одинаковых устройств, например нескольких жестких дисков, а шина PCI обеспечивает самоконфигурируемость периферийного (дополнительного) оборудования — поддержку стандарта Plug and Play, исключающего ручную конфигурацию аппаратных параметров периферийного оборудования при его изменении или наращивании. Операционная система, поддерживающая этот стандарт, сама настраивает оборудование, подключенное по шине PCI, без вмешательства пользователя. Имеются как 64-разрядные расширения шины PCI, так и 32-разрядные, работающие на частоте 66 МГц. Сигналы данных могут дополнительно обеспечиваться собственными сигнальными линиями заземлелчя — по одному на каждый канал данных. В таком случае числе;

сигналов возрастает до 25. Для соединения компьютера с устройством при помощи параллельного интерфейса используется 25-контактный разъем Centronics. Параллельные интерфейсы имеют высокую скорость передачи данных (до 150 К/с) и низкую помехэустойчивость, что позволяет использовать кабель длиной но более 3 м. 5.2. Последовательные порты (СОМ) Последовательные порты передают данные последовательно по одному биту. Для передачи и приема в них используются два канала (один — для передачи и одиь — для приема) и несколько дополнительных сигнальных лиинй. Для соединения при помощи последовательных портов используются 9- и 25-контактные соединительные разъемы. Последовательные коммуникационные порты имеют достаточно низкие скорости работы (50, 75, 100, 110, 200, 300, 600, 1200, 2400, 4800, 9600, 19 200, 38 400, 57 000 и 115000 бит/с) и высокую помехоустойчивость, что позволяет использовать соединительный кабель длиной до 75 м и более. Последовательные порты применяются как для соединения компьютера с принтерами, модемами, мышами, ручными сканерами и т. п., так и для соединения двух компьютеров. 5.3. Порт PS/2 Во второй половине 1980-х годов компания IBM выпустила серию ПК под названием PS/2, у которые был специальный маленький круглый разъем для мыши, к

, USB определяет, добавлено устройство или отключено, благодаря своей продвинутой логике, обеспечиваемой основной системой. Шина автоматически определяет, какой системный ресурс, включая программный драйвер и пропускную 5. ПОРТЫ Думается, не стоит объяснять, что такое порт. Порты предназначены для соединения периферийных устройств с материнской платой. Существует несколько видов портов. 5.1. Параллельные порты (LPT) Чаще всего параллельные порты LPT используются для подключения к компьютеру печатающих устройств (принтеров). Параллельные порты получили свое название благодаря методу передачи данных, т. к. они имеют восемь разрядов шины данных и способны передавать информацию байтами синхронно по восьми проводникам.

Из чего состоит персональный компьютер способность, нужен каждому периферийному устройству, и делает этот ресурс доступным без вмешательства пользователя. Владельцы компьютеров, оснащенных шиной USB, имеют возможность переключать совместимые периферийные устройства так же просто, как они вкручивают новую лампочку в лампу, (4 бита на пиксел), 256 (8 бит на пиксел), 32 000 (12 бит на пиксел), 64 000 (16 бит на пиксел), 16 млн (32 бита на пиксел) — режим True color. В зависимости от используемого графического режима и типа адаптера дисплея, цвета пикселов могут кодироваться разным количеством бит, что в конечном итоге определяет число одновременно отображаемых на экране цветов — цветовую палитру — и объем видеопамяти, необходимый для хранения картинки изображения. Современные видеокарты могут иметь до 64 МБ видеопамяти и более, что дает им возможность использовать графические видеорежимы с 16 млн цветов (True color) и разрешением экрана до 1024x768 пикселов и выше. Скорость работы видеоадаптера — скорость отрисовки пикселов на экране — весьма разнообразна и зависит от его типа, видеорежима, используемой в адаптере видеопамяти и скорости работы и типа всей системы в целом. Современные видеоадаптеры в своем составе имеют, как правило, контроллер и процессор — графический сопроцессор системы. Разрядность контроллера и шипы данных между контроллером и видеопамятью может составлять 32 и 64 бита, что в первую очередь влияет на производительность устройства. Однако разрядность — признак, характеризующий четыре компонента видеосистемы — процессор, контроллер, микросхему памяти и соединяющую их шину данных. Теоретически, наивысшая производительность достигается при 64-разрядности всех четырех компонент. Однако использование таких видеорежимов сказывается на производительности всей системы и, следовательно, они забирают часть ресурсов компьютера, если у него не хватает видеопамяти. Для того чтобы видеокарта не забирала под свою работу системные ресурсы, нужно, чтобы у видеокарты имелось в наличии не менее 8 МБ видеопамяти. К важнейшим характеристикам видеокарты относят тип, вид;

поддерживаемые видеорежимы (допустимые разрешения экрана, максимально возможное количество цветов), поддерживаемые режимы энергетического сохранения и управления монитором, поддержку аппаратных систем ускорения и акселерации вывода в текстовых и графических режимах, акселерации отрисовки двухмерных 2D и трехмерных 3D изображений, заполнения фоном (текстурой) графических примитивов, буферизации вывода растровых и других шрифтов, разрядность контроллера и шины данных между контроллером и видеопамятью и др. Большинство указанных параметров зависят от типа и вида устройства.

5.5. Порт FireWire IEEE 1394, или FireWire, — это последовательная высокоскоростная шина, предназначенная для обмена цифровой информацией между компьютером и другими электронными устройствами. Благодаря невысокой цене и большой скорости передачи данных эта шина становится новым стандартом шины ввода/вывода для персонального компьютера. Ее изменяемая архитектура и одноранговая топология делают FireWire идеальным вариантом для подключения жестких дисков и устройств обработки аудио- и видеоинформации. Эта шина также идеально подходит для работы мультимедийных приложений в реальном времени.

6. ВИДЕОКАРТА Видеокарта, видеоадаптер, видеоконтроллер, или адаптер дисплея, является устройством, непосредственно формирующим изображение на мониторе. Как и любой другой контроллер устройства, видеокарта может быть выполнена как внешнее или внутреннее (интегрированное, встроенное) на материнскую плату оборудование. Тип видеоконтроллера и его возможности определяют в конечном виде аппаратно достижимые и поддерживаемые режимы работы всей графической системы, скорость и качество формируемого на экране мониторов изображения. Видеокарта, выполненная как внешнее устройство, требует подключения к материнской плате в определенный слот. Интегрированная на материнскую плату видеокарта не требует подключения вообще, но может быть отключена в случае необходимости подключения внешней. Все видеокарты содержат видеобуфер, физические адреса которого находятся на плате адаптера, но входят в общее адресное пространство оперативной памяти компьютера. В нем хранится текстовая или графическая информация, выводимая на экран. Тип микросхем видеопамяти значительно влияет на производительность всей видеосистемы в целом. Так, обычные чипы динамической памяти DRAM не позволяют делать одновременно операции чтения и записи в область видеопамяти, а микросхемы VRAM (Video Random Access Memory) позволяют, что значительно ускоряет работу устройства. Основная функция видеокарты заключается в преобразовании цифровых данных видеобуфера в те сигналы, которые управляют монитором и формируют видимое пользователем изображение на экране. Графические режимы допускают отрисовку на экране монитора объектов произвольной формы и сложности. Общим принципом графических режимов является кодирование изображения как набора элементарных точек — пикселов, определяющих максимальное разрешение экрана. Выпускаются видеокарты с самыми различными графическими режимами (320x200,640x480, 800x600, 1024x768, 1280x1024, 1600x1200). В зависимости от числа бит на пиксел различают монохромные и цветные графические режимы с числом цветов 7. ЗВУКОВАЯ КАРТА Звуковые адаптеры, или карты, — это устройства, позволяющие воспроизводить и записывать звук. Стандартные звуковые карты обычно бывают внутренние, вставляемые в разъем системной шины на материнской плате. К звуковым картам обычно можно подключить колонки, микрофон и игровой джойстик. Основные характеристики звуковых адаптеров — это качество звука (частотный диапазон воспроизведения и записи, стерео- или моноззучанис, наличие систем цифровой фильтрации), количество каналов воспроизведения и записи, разрядность шины данных, наличие синтезатора и число его голосов и др. Чем шире частотный диапазон звукового сигнала, тем чище и качественнее воспроизводимый и записываемый звук устройства. Наиболее распространены карты с диапазоном от 20 Гц до 25 КГц. Системы цифровой фильтрации 268 Информатика позволяют достаточно существенно улучшить качество звучания и записи. Они могут быть одно- и многоканальными и иметь или не иметь программный интерфейс управления. Обычные звуковые карты, применяемые в домашних и офисных компьютерах, имеют один канал воспроизведения и один канал записи звука. Более мощные и дорогие устройства имеют несколько (2, 4, 6, 10 и более) каналов и позволяют осуществлять независимое воспроизведение, запись и наложение нескольких звуковых источников, а также полное раздельное управление каналами. Разрядность внутренней и внешней шин данных имеет прямое отношение к производительности и возможностям устройства. Выпускаются 8-, 16- и 32-разрядные карты, обеспечивающие возможности от примитивного монофонического до многоканального стереозвука и записи. Синтезатор представляет собой дополнительную систему создания звуковых эффектов. При помощи программируемых голосов синтезатора можно синтезировать звук благодаря специальным цифровым командам, чта значительно уменьшает объем информации, необходимый для воспроизведения звука. Многие звуковые карты содержат :вуковой вход аналогового сигнала для подключения выходного звукового CD-ROM, для обеспечения возможности проигрывания музыкальных компакт-дисков. Также они могут им ;

ть слоты для подключения игровых адаптеров, позволяющей: подключать джойстики и другие игровые манипуляторы.

ПРОЦЕССОР План 1. Архитектуры процессоров. 1.1. RISC. 1.2. CISC. 1.3. Параметры процессоров. 1.4. Процесс производства. 2. Процессоры Intel Architecture. 2.1. История процессоров IA. 2.2. Как работают процессоры IA-32. 2.3. Современные процессоры IA-32. 2.4. Процессоры IA-64.

1. АРХИТЕКТУРЫ ПРОЦЕССОРОВ Процессор, или более полно — микропроцессор, часто называемый ЦПУ (CPU — central processing unit), является центральным компонентом компьютера. Это разум, который прямо или косвенно управляет всем происходящим внутри компьютера. Когда фон Нейман впервые предложил хранить последовательность инструкций, так называемые программы, в той же памяти, что и данные, это была поистине новаторская идея. Опубликована она в «First Draft of a Report on the EDVAC» в 1945 г. Этот отчет описывал компьютер состоящим из четырех основных частей: центрального арифметического устройства, центрального управляющего устройства, памяти и средств ввода/вывода. Сегодня почти все процессоры имеют фон-неймановскую архитектуру. Каждый микропроцессор имеет определенное число элементов памяти, называемых регистрами, арифметико-логическое устройство (АЛУ) и устройство управления. Регистры используются для временного хранения выполняемой команды, адресов памяти, обрабатываемых данных и другой внутренней информации микропроцессора.

В АЛУ производится арифметическая и логическая, обработка данных. Устройство управления реализует временную диаграмму и вырабатывает необходимые управляющие сигналы для внутренней работы микропроцессора и связи его с другой аппаратурой через внешние шины микропроцесс ера. На данный момент существует несколько направлений в производстве микропроцессоров. Они различается принципами построения архитектуры процессора. Накоолее распространенными являются архитектуры RISC и CISC. 1.1. RISC Микропроцессоры с архитектурой RISC (Reduced Instruction Set Computers) используют сравнительно ызболылой (сокращенный) набор наиболее употребимых ком ад, определенный в результате статистического анализа большого числа программ для основных областей применения CISC-процессоров исходной архитектуры. Все команды работают с операндами и имеют одинаковый формат. Обращение к памяти выполняется с помощью специальных команд загрузки регистра и записи. Простота структуры и небольшой набор к J панд позволяют реализовать полностью их аппаратное выполнение и эф Процессор фективный конвейер при небольшом объеме оборудования. Арифметику RISC-процессоров отличает высокая степень дробления конвейера. Этот прием позволяет увеличить тактовую частоту (а значит, и производительность) компьютера;

чем более элементарные действия выполняются в каждой фазе работы конвейера, тем выше частота его работы. RISC-процессоры с самого начала ориентированы на реализацию всех возможностей ускорения арифметических операций, поэтому их конвейеры обладают значительно более высоким быстродействием, чем в CISC-процессорах. Поэтому RISC-процессоры в 2—4 раза быстрее имеющих ту же тактовую частоту CISC-процессоров с обычной системой команд и более высокопроизводительны, несмотря на больший размер программ. RISC-архитектура построена на 4 основных принципах: 1. Любая операция должна выполняться за один такт, вне зависимости от ее типа. 2. Система команд должна содержать минимальное количество наиболее часто используемых простейших инструкций одинаковой длины. 3. Операции обработки данных реализуются только в формате «регистр — регистр» (операнды выбираются из оперативных регистров процессора, и результат операции записывается также в регистр;

а обмен между оперативными регистрами и памятью выполняется только с помощью команд загрузки/записи). 4. Состав системы команд должен быть удобен для компиляции операторов языков высокого уровня. Усложнение RISC-процессоров фактически приближает их архитектуру к CISC-архитектуре. В настоящее время число процессоров с RISC-архитектурой существенно возросло и все ведущие фирмы США их производят, в том числе фирмы Intel, Motorola — производители основных семейств процессоров с CISC-архитектурой.

1.3. Параметры процессоров Структуры различных типов процессоров могут существенно различаться, однако с точки зрения пользователя наиболее важными параметрами являются архитектура, адресное пространство памяти, разрядность шины данных, быстродействие. Архитектуру микропроцессора (МП) определяет разрядность слова и внутренней шины данных МП. Первые МП основывались на 4-разрядной архитектуре. Первые ПЭВМ использовали МП с 8-разрядной архитектурой, а современные МП основаны на 32- и 64-разрядной архитектуре. Микропроцессоры с 4- и 8-разрядной архитектурой использовали последовательный принцип выполнения команд, при котором очередная операция начинается только после выполнения предыдущей. В некоторых МП с 16-разрядной архитектурой используются принципы параллельной работы, при которой одновременно с выполнением текущей команды производятся предварительная выборка и хранение последующих команд. В МП с 32-разрядной архитектурой используется конвейерный метод выполнения команд, при котором несколько внутренних устройств МП работают параллельно, производя одновременно обработку нескольких последовательных команд программы. Адресное пространство памяти определяется разрядностью адресных регистров и адресной шины МП. В 8-разрядных МП адресные регистры обычно составляются из двух 8-разрядных регистров, образуя 16-разрядную шину, адресующую 68 КБ памяти. В 16-разрядных МП, как правило, используются 20-разрядные адресные регистры, адресующие 1 МБ памяти. В 32-разрядных МП используются 24- и 32-разрядные адресные регистры, адресующие от 16 МБ до 4 ГБ памяти. Для выборки команд и обмена данными с памятью МП имеют шину данных, разрядность которой, как правило, совпадает с разрядностью внутренней шины данных, определяемой архитектурой МП. Однако для упрощения связи с внешней аппаратурой внешняя шина данных может иметь разрядность меньшую, чем внутренняя шина и регистры данных. Например, некоторые МП с 16-разрядной архитектурой имеют 8-разрядную внешнюю шину данных. Они представляют собой специальные модификации обычных 16-разрядных МП и обладают практически той же вычислительной мощностью. Одним из важных параметров МП является тактовая частота его работы и работы системной шины, которая обычно задается внешними синхросигналами. Для современных процессоров стандартными являются частоты системной шины 66, 100, 133 МГц, а собственная частота достигает 3 ГГц. Выполнение простейших команд (например, сложение двух операндов из регистров или пересылка операндов в регистрах МП) требует минимально двух периодов тактовых импульсов (для выборки команды и ее выполнения). Более сложные команды требуют для выполнения до 10—20 периодов тактовых импульсов. Если операнды находятся не в регистрах, а в памяти, дополнительное время расходуется на выборки операндов в регистры и запись результата в память. Скорость работы МП определяется не только тактовой частотой, но и набором его команд, их гибкостью, развитой системой прерываний. В соответствии с законом Мура (сформулированным в 1965 г. Гордоном Муром, одним из создателей Intel), CPU удваивает свою мощность и возможности каждые 18 месяцев. Этот закон действует на протяжении уже почти сорока лег.

1.2. CISC Микропроцессоры с архитектурой CISC (Complex Instruction Set Computers — архитектура вычислений с полной системой команд) реализуют на уровне машинного языка комплексные наборы команд различной сложности, от простых, характерных для микропроцессора первого поколения, до очень сложных. Большинство современных процессоров для персональных компьютеров построено по архитектуре CISC. В последнее время появились гибридные процессоры, которые имеют систему команд CISC, однако внутри преобразовывают их в цепочки RISC-команд, которые и исполняются ядром процессора. Постепенное усложнение CISC-процессоров происходит в направлении более совершенного управления машинными ресурсами, а также в направлении сближения машинных языков с языками высокого уровня. В то же время сложная система команд и переменный формат команды процессором с CISC-архитектурой привели к быстрому росту сложности схем. Так, процессор 8086 содержал 29 тыс. транзисторов, 80 386 — 275 000, Pentium — 3 100 000, Pentium 4 — 42 млн транзисторов. Для того чтобы такие процессоры вообще могли работать с приемлемым энергопотреблением и размещаться на ограниченной площади, производители работают над миниатюризацией транзисторов. Уже достигнут уровень 0,09 мкм.

270 Информатика Однако законы физики ограничивают разработчиков в непосредственном увеличении частоты, и хотя частоты растут каждый год, это не может дать того прироста производительности, что мы используем сегодня. Вот почему инженеры постоянно ищут способ заставить процессор выполнять больше работы за каждый тик. Развитие состоит в расширении шины данных и регистров. Даже 4-битные процессоры способны складывать 32-битные числа, правда, выполнив массу инструкций;

32-битные процессоры решают эту задачу в одну инструкцию. Большинство сегодняшних процессоров имеют 32-разрядную архитектуру, на повестке уже 64-разрядные. Pentium II изготовлен по такой технологии, он был бы размером 14x20 см и был бы медленным — быстрые транзисторы малы. Большинство процессоров сегодня используют 0.13-микрониую технологию, а на подходе уже и 0.09-микронный процесс.

2. ПРОЦЕССОРЫ INTEL ARCHITECTURE 2.1. История процессоров IA Архитектура Intel Architecture стала стан;

иртом «де-факто» современной компьютерной индустрии по:ле того, как в 1981 г. компания IBM выбрала для своего первого персонального компьютера IBM PC процессор Intei 8088. Основополагающими факторами такой популярности Intel считает полную совместимость программного обеспечэния, разработанного под Intel Architecture процессоры, и вс э более серьезные увеличения производительности, предлагавшиеся с выходом новых поколений процессоров. Родоначальниками процессорной архитектуры Intel Architecture являлись 16-разрядные процессора 8088 и 8086, причем объектный код, разработанный в расчете на них в 1978 г., и поныне без проблем исполняется на самых госледних процессорах 32-разрядной архитектуры IA-32. Процессор 8086 имел 16-разрядные регистры общего назначения, 16-разрядную шину данных и 20-разрядную шину адреса, что позволяло ему оперировать адрес ным пространством в 1 МБ. Отличие процессора 8088 заключалось в 8разрядной шине данных. Эти процессоры привнесли сегментацию в архитектуру IA-32. Память разделялась на сегменты размером до 64 КБ. Оперируя четырьмя сегментными регистрами одновременно, процессор имел возможность адресации до 256 КБ памяти без переключения между сегментами. При этом 20-разрядные адреса получались путем добавления 16-разря.!шого адреса к указателю сегментного регистра. Процессор 80286 привнес в архитектуру (Д-32 защищенный режим. В нем содержимое сегментных регистров используется в качестве указателей на таблицы дескрипторов, которые давали возможность 24-разрядной адресации, что составляло 16 МБ адресного пространства. К тому же появилась возможность проверки границ сегментов, опций read и executeonly для сегментов и 4 уровня защиты кода операционной системы от приложений и защита приложений друг от друга. Intel 80386 стал первым 32-разрядным процессором в архитектуре IA-32. В архитектуру введены 32-разрядные регистры общего назначения (GP — general purpose), подходящие как для хранения адресов, так и для операндов. Нижняя и верхняя половины сохранили возможность работы в качестве самостоятельных регистров для обеспечения совместимости с предыдущими процессорами. Для обеспечения эффективного выполнения кода, созданного под ранние процесс эры, на 32-разрядных процессорах был введен виртуальный х86-режим. Имея 32-разрядную шину адреса, 80386 процессор поддерживал адресацию до 4 ГБ памяти. При этои была возможность использования как сегментированной ламяти, так и «плоской», при которой все сегментные регистры содержали указатель на один и тот же адрес, и в каждом сегменте доступно все 4-гигабайтное адресное пространство. Для виртуального управления памятью вводится страничный метод, при котором адресное пространство делится на фиксированные стра 1.4. Процесс производства Кремний или силикон — это основной материал для производства чипов. Это полупроводник, который, будучи присажен добавками по специальной маске, становится транзистором, основным строительным блоком цифровых схем. Процесс подразумевает вытравливание транзисторов, резисторов, пересекающихся дорожек и т. д. на поверхности кремния. Сперва выращивается кремневая болванка. Она должна иметь бездефектную кристаллическую структуру, этот аспект налагает ограничение на ее размер. В прежние дни болванка ограничивалась диаметром в 2 дюйма, а сейчас — 8 дюймов. На следующей стадии болванка разрезается на слои, называемые пластинами (wafers). Они полируются до безупречной зеркальной поверхности, На этой пластине и создается чип. Обычно из одной пластины делается много процессоров. Электрическая схема состоит из разных материалов. Например, диоксид кремния — это изолятор, из полисиликона изготавливаются проводящие дорожки. Когда появляется открытая пластина, она бомбардируется ионами для создания транзисторов —.это и называется присадкой. Чтобы создать все требуемые детали, на всю поверхность пластины добавляются слои и лишние части вытравливаются вновь. Для этого новый слой покрывается фоторезистором, на который проектируется образ требуемых деталей. После экспозиции проявление удаляет части фоторезистора, выставленные на свет, оставляя маску, через которую проходило вытравливание. Оставшийся фоторезистор удаляется растворителем. Этот процесс повторяется, по слою за раз, до полного создания всей схемы. Излишне говорить, что детали размером в миллионную долю метра может испортить мельчайшая пылинка. Такая пьиинка может быть размером от микрона до ста — а это в 3—300 раз больше детали. Микропроцессоры производятся в сверхчистой среде, где операторы одеты в специальные защитные костюмы. В прежние времена производство полупроводников приводило к удаче или неудаче с отношением успеха менее 50% работающих чипов. Сегодня выход готовой продукции намного выше, но никто не ожидает 100%. Как только новый слой добавляется на пластину, каждый чип тестируется и отмечается любое несоответствие. Индивидуальные чипы отделяются. Плохие бракуются, а хорошие упаковываются в PGAкорпус (Pin Grid Arrays) — керамический прямоугольник с рядами штырьков на дне;

именно такой корпус большинство людей принимают за процессор. Intel 4004 использовал 10-микронный процесс: наименьшие детали составляли одну 10-миллионную метра. По сегодняшним стандартам это чудовищно. Если предположить, что Процессор ницы размером по 4 КБ, эффективность которого значительно превышала использование сегментов, 16-разрядные инструкции, доставшиеся в наследство от предыдущих процессоров, получили возможность работы с 32-разрядными операндами и адресами, а также был добавлен ряд новых 32-разрядных инструкций. В архитектуре процессоров Intel поддержизается обратная совместимость с объектным кодом для сохранения совместимости программного обеспечения, но в то ЖР время в каждом новом поколении используются все более эффективные микропроцессорные архитектуры и технологии конструирования. Intel работала по внедрению и соединению сложной техники архитектуры mainframe в микропроцессорную архитектуру. Многие модели параллельной обработки намного усиливали производительность техники, и процессор 80386 был первым процессором IA, в который включили шесть параллельных стадий. Это интерфейсный блок шины (доступ к памяти и устройству ввода/вывода других блоков), блок предварительного кода (получает объектный код из блока шины и помещает его в 16 байтную очередь), блок декодирования инструкции (декодирует объектный код из предварительного блока в микрокод), блок выполнения (выполняет инструкции микрокода), сегментный блок (переводит логические адреса в линейные адреса и выполняет проверку защиты) и страничный блок (переводит линейные адреса в физические, выполняет проверку страничной защиты и содержит кэш с информацией о 32 наиболее часто используемых страницах). В процессор i486 добавлена возможность параллельного выполнения с помощью расширения блока декодирования инструкции и блока выполнения процессора 80386 в пять конвейерных стадий, где каждая стадия (если нужно) работает параллельно с другими и одновременно может выполняться до пяти инструкций в разных стадиях. Каждая стадия может выполнить свою работу над одной инструкцией за один такт, то есть процессор i486 может выполнить работу над одной инструкцией за один такт CPU. Также к процессору i486 был добавлен 8-килобайтный кэш L1 для увеличения процента инструкций, которые могут быть выполнены за один такт: инструкции доступа в память (если операнд находился в кэше L1). В Процессоре i486 впервые на чип с CPU был интегрирован блок арифметического устройства с плавающей запятой (FPU) и добавлены новые контакты, биты и инструкции для поддержки более сложных и мощных систем (поддержку Ь2-кэша и мультипроцессорное™). Позже Intel добавила в процессор i486 SL Enhanced (расширенный) функции поддержки энергосбережения и другие возможности системного управления. Эти функции были развиты в процессорах 80386 SL и i486 SL, которые были специализированы для быстро растущего рынка ноутбуков PC, работающих от батарей. Эти функции включали новый режим управления системой, запускаемый собственным выделенным контактом прерывания, который позволяет управлять системой (такой, как управление энергосбережением) и добавляется к системе прозрачно для других операционных систем И всех приложений. Функции стоп таймер и автоматическая остановка позволяют CPU работать на пониженной частоте (для сохранения энергии) или остановиться (с сохранением текущего состояния). Процессор Pentium стал первым процессором, в котором была применена суперскалярная архитектура — два конвейера, называвшиеся U и V, позволяли выполнять 2 инструкции за такт Количество Ll-кэша удвоилось — теперь на команды и данные приходилось по 8 КБ, причем кэш данных использовал более эффективную схему с обратной записью. Для эффективного предсказания переходов в циклических конструкциях применялась встроенная таблица ветвлений. В виртуальном х86-режиме в дополнение к 4-килобайтным страницам появилась поддержка 4-мегабайтных страниц. Регистры остались 32-разрядными, но некоторые внутренние шины расширились до 64 и даже 128 разрядов. Также 64-разрядной стала внешняя шина данных. Последний процессор этого поколения, Pentium MMX, привнес в архитектуру расширенный набор команд, позволявший эффективно оперировать упакованными целочисленными данными, находящимися в 64-разрядных ММХ-регистрах. В 1995 г. было представлено семейство процессоров Р6, имевшее уже 3 независимых конвейера. Первым процессором этого семейства был процессор Pentium Pro. Принципиальное отличие этого семейства состоит в том, что Р6 преобразует команды х86 во внутренние, RISC-подобные команды, называемые микрокомандами (micro-ops). Это позволяет устранить многие ограничения, свойственные набору команд х86: нерегулярность кодирования команд, операции целочисленных пересылок типа «регистр—память» и переменная длина непосредственных операндов. Шина адреса процессоров Р6 расширилась до 36 разрядов, что позволяет использовать адресное пространство размером до 64 ГБ. В процессор Pentium II к архитектуре процессора Pentium Pro добавлены команды ММХ. Для процессора Pentium II вводится новая спецификация установки в материнскую плату слота 1 и слота 2. В этой новой спецификации кэш L2 выносится из кристалла. Для слота 1 и слота 2 используется ножевое соединение вместо сокета. В процессоре Pentium II увеличен кэш данных L1 и кэш инструкций L1 до 16 КБ каждый. В процессоре Pentium II размер кэша L2 может быть 256 КБ, 512 КБ и 1 МБ или 2 МБ (только для слота 2). Процессоры слота 1 используют «половинную тактовую частоту» шины, а процессоры слота 2 используют «полную тактовую частоту» шины. Процессор Pentium !!!, выпущенный в 1999 г., привнес в архитектуру IA-32 расширения SSE (Streaming SIMD (Single Instruction Multiple Data) Extensions) — стали доступны новые 128-разрядные регистры и SIMD-операции над упакованными операндами с плавающей запятой с одинарной точностью.

2.2. Как работают процессоры IA- Полная обработка каждой инструкции занимает определенное количество тактов процессора. При этом возможно разделить процесс обработки на этапы, что позволит начать выполнение следующей команды сразу за тем, как предыдущая команда пройдет первый этап — это, собственно, и есть принцип конвейерной обработки (pipelining), применяемый еще со времен процессоров i486 и Pentium, в которых использовался стандартный 5-ступенчатый конвейер. Суперконвейеризация (superpipelining), примененная в семействе Р6, делит ступени стандартного конвейера на более мелкие части. С увеличением числа ступеней каждая отдельная ступень выполняет меньшую работу и, следовательно, содержит меньше аппаратной логики. Временной интервал меж ду поступлением набора входных воздействий на вкоды схемы и появлением результирующих сигналов на ее выходях 274 Информатика тельности микроопераций, поступающих для выполнения в исполнительные устройства процессора. Емкость этого кэша составляет 12 000 микроопераций. Кэш 2-го уровня в Pentium 4, сделанном на ядре Willamette, остался объемом 256 КБ. Ширина шины кэша L2составляет 256 бит, но латентность кэша уменьшилась в два раза, что позволило добиться пропускной способности кэша в 48 ГБ при частоте 1,5 ГГц. Самой интересной особенностью новых процессоров Pentium 4 является расширение набора команд процессора инструкциями Streaming SIMD Extensions 2 (SSE2). В отличие от AMD, которая сильно переработала блок FPU, Intel решила оставить его практически без изменений, но зато дополнила его множеством команд для работы с потоками данных. К 70 инструкциям SSE, работающим с потоковыми данными одинарной точности, добавились 144 инструкции для работы с числами двойной точности, а также с целыми числами длиной 1—8 байт. Оптимизация программ под SSE2 должна увеличить их производительность в 2—5 раз. Конструктивы процессоров Существуют разные типы корпусов, внутри которых размещаются современные процессоры IA-32: 1. PQFP (Plastic Quad Flat Package — плоский прямоугольный пластмассовый корпус с выводами по четырем сторонам) — корпус для установки методом поверхностного монтажа. Выводы сделаны по каждой из сторон в плоскости корпуеа, при монтаже соответствующим образом изгибаются. В этих корпусах выпускалось большинство процессоров 386, а также варианты процессоров для ноутбуков. 2. SQFP (Shrink Quad Flat Package — корпус с выводами по четырем сторонам, загнутыми внутрь) — для установки методом поверхностного монтажа или вставки в разъем. За счет того, что выводы загнуты под корпус, уменьшается площадь, занимаемая корпусом на плате, а также увеличивается жесткость выводов, поскольку их концы упираются в специально сделанные выемки на нижней поверхности корпуса. 3. PGA (Pin Grid Array — «решетчатая» структура выводов) - керамический корпус с вертикальными выводами, расположенными по нижней поверхности корпуса в несколько рядов. Устанавливается преимущественно в разъем. В таких корпусах выпускалась часть процессоров 386 и подавляющее большинство процессоров 486. 4. SPGA (Scattered PGA — модификация с «разбросанными» выводами) — вариант PGA, когда выводы расположены в шахматном порядке. В этих корпусах выпускались первые процессоры Pentium. 5. PPGA (Plastic PGA — пластмассовый) - вариант PGA с металлическим корпусом для кристалла и пластмассовым обрамлением, в которое запрессованы выводы. В таких корпусах выпускаются процессоры Pentium, Celeron, Pentium !!! и Pentium 4. Современные процессоры отличаются большим разнообразием конструктивов. Процессоры Pentium II изготавливались в конструктиве SECC и SEPP. Для этих процессоров был разработан Slot 1 - щелевой разъем с 242 контактами. В этот же слот устанавливаются и процессоры Celeron, и Pentium !!!. Слот позволяет работать с частотой системной шины 66 или 100 МГц. Для Slot 1 предназначены процессоры с разными названиями «упаковки». 1. SECC - картридж процессоров Pentium II и Pentium !!! Представляет собой печатную плату с установленными ком понентами. К микросхемам ядра и кэша прилагает термопластина, распределяющая тепло, к которой снаружи крепится вентилятор (или иное охлаждающее устройство) Спереди картридж закрыт крышкой. 2. SECC 2 — картридж для тех же процессоров, который появился, начиная с частоты 350 МГц. От предыдущего отличается тем, что не имеет термопластины — внешние «холодильники» прижимаются прямо к корпусам микросхем ядра и кэша, что снижает тепловое сопротивление и повышает эффективность охлаждения. Сами процессоры, устанавливаемые на SECC 2, могут быть как в корпусах PLGA (Plastic Land Grid Array), так и в OLGA (Organic Land Grid Array). 3. SEPP (Single Edge Processor Package) - картридж процессоров Celeron, не имеющий ни термопласта чы, ни крышки. Внешний радиатор прижимается прямо к корпусу ядра, а микросхем вторичного кэша у процессоров Celercn нет. В процессорах Celeron идея упаковки в картридж себя изжила — одну микросхему ядра легко упаковать и в обычный корпус со штырьковыми выводами. Так появился Celeron в корпуее PPGA (Plastic Pin Grid Array), напоминающий по виду Pentium в форм-факторе (Socket 370 (по числу выводов)). Он имеет 6 полных рядов контактов. Современные процессоры Pentium !!! и Pentium 4 также выпускаются в конструктиве PPGA 2.4. Процессоры IA-64 В конце 2001 г. Intel представила Itanium — первый процессор, построенный с использованием архитектуры нового поколения, совместно разработанной двумя компаниями. Хотя эта 64-разрядная архитектура основана на многолетних исследованиях Intel, HP, других компаний и университетов, она радикально отличается от всего, что было до сих пор пред ставлено на рынке. Архитектура эта известна под названием Intel Architecture-64 (IA-64). I A - 6 4 не является 64-разрядным расширением 32-разрядной архитектуры х86 компании Intel. IA-64 представляет собой нечто абсолютно новое — передовую архитектуру, использующую длинные слова команд (long instruction words — LIW), прс;

;

нкаты команд (instruction predication), устранение ветвлений (branch elimination), предварительную загрузку данных (speculative loading) и другие ухищрения для того, чтобы «извлечь больше параллелизма» из кода программ. Архитектура IA-64 воплощает концепцию EPIC (Explicitly Parallel Instruction Computing - вычисления с явным параллелизмом команд). Концепция EPIC разработана совместно фирмами Intel и Hewlett-Packard;

по их заявлениям, EPIC — концепция той же значимости, что CISC И RISC. В IA-64 используется новый 64-разрядный набор команд, разработанный также совместно фирмами Intel и HP. К тому же Itanium полностью совместим с архитектурой IA-32. Подобно тому, как процессоры IA-32 умели переключаться между защищенным и реальным режимами, так и процессоры IA-64 посредством выбора режима выполняют либо инструкции 32-разрядного х86, л«5о свои 64-разрядные инструкции. В процессоре Itanium используется методика предположения. Она заключается в том, что инструкции и данные загружаются в процессор (используя процессор как кэш) до того, как они могут понадобиться, а в некоторых случаях даже если они и не должны понадобиться. Такая ранняя Память загрузка должна происходить во время простоя процессора. Преимущество этой методики в том, что при совпадении загруженных данных с теми, которые потребовались для дальнейшей работы, исчезает время ожидания на их загрузку из памяти. Itanium содержит несколько специальных регистров, позволяющих проводить менеджмент работы процессора в реальном времени, практически не ухудшая производительности собственно вычислений. Itanium имеет три кэша. Два кэша, L1 и L2, находятся на кристалле процессора. Кэш третьего уровня, L3, расположен на картридже и имеет объем 4 МБ.

Довольно большой процент площади кристалла (около 10%) занят модулем работы с плавающей точкой (FPU). Для такой работы у процессора есть 128 82-битных регистров. Что дает переход на 64-битный процессор? Одно - это возможность обрабатывать 8-байтную информацию за такт процессора. Кроме процессора, это должна поддерживать системная шина. Другое - возможность использования 64 бит для адресации памяти. 32-битный процессор может адресовать 2 s2 т. е приблизительно 4.3 млрд байт. А 64-битный - 2Ы, т. е. около 18.4 квинтильона байт.

ПАМЯТЬ План 1. Оперативная память. 2. Синхронная динамическая память 3. Постоянная память. 4 Кэш. Всем компьютерам требуется память нескольких видов и на каждом шагу выполнения программ. Память нужна как для исходных данных, так и для хранения результатов, для взаимодействия с периферией компьютера и даже для поддержа ния образа, видимого на экране. Вся память компьютера делится на внутреннюю и внешнюю. В компьютерных системах работа с памятью основывайся на очень простых концепциях. В принципе, все, что требуется от компьютерной памяти, — это сохранять один бит информации так, чтобы потом он мог быть извлечен оттуда. В настоящее время широкое распространение получили устройства динамической памяти, базирующиеся на способности сохранять электрический заряд. Эти устройства называются конденсаторами. На первый взгляд конденсатор не удовлетворяет основному требованию устройств памяти. Он не способен сохранять заряд в течение длительного промежутка времени, но он позволяет делать это в течение нескольких миллисекунд, чего вполне достаточно, чтобы использовать это в электронике. За это время специальные цепи компьютера обеспечивают подзарядку конденсатора, то есть обновление информации. Из-за непрерывности этого процесса такая память называется динамической. В современных персональных компьютерах динамическая память реализуется на базе специальных цепей проводников, заменивших обычные конденсаторы. Большое количество таких цепей объединяется в корпусе одного динамического чипа. Однако, подобно памяти на конденсаторах, такая должна постоянно освежаться. В то время как динамическая память, получив заряд электричества, удерживает его, так называемая статическая память иочпеияет потоку электронов циркулировать по цепи. При 10* SDRAM.

кладываемое напряжение может изменить направление движения электронов. Причем существует только два направления движения потока, что позволяет использовать данные цепи в качестве элементов памяти. Статическая память работает наподобие выключателя, который переключает направление электронного потока. Эволюция микросхем ОЗУ вплотную связана с эволюцией персональных компьютеров. Для успеха настольных компьютеров требовались миниатюрные чипы ОЗУ. По мере увеличения емкости памяти цена скачкообразно возрастала, но потом постоянно уменьшалась по мере отработки технологии и роста объемов производства. Динамические микросхемы памяти маркируются специальным числом, говорящим об их скоростных возможностях. Указанное на корпусе число отражает время доступа в наносекундах без последнего нуля. Время доступа не является, однако, единственной или наиболее важной характеристикой микросхем памяти. Более значимо такое понятие, как время цикла, которое говорит о том, как быстро можно произвести повторное обращение. В динамических микросхемах это время больше времени досту па, в статических чипах эти времена равны, что говорит о Солее скоростных режимах последних. Чтобы справиться с ограничением по скорости, были не пользованы специальные решения по организации памяти. Наиболее простое из них — это использование обычной архитектуры с необходимым числом циклов ожидания Хорошая альтернатива предыдущему методу - использование кэш-памяти, что позволит избежать полного заполнения всей машины быстрой RAM-памятью. Обычно программа использует память какой-либо ограниченной области, храпя нужную информацию в кэш-памяти, работа с которой цтволяет процессору обходиться без циклов ожидания 276 Информатика Не всякая кэш-память равнозначна. Большое значение имеет тот факт, как много информации может содержать кэшпамять. Чем больше кэд;

-память, тем больше информации может быть в ней размещено, а следовательно, тем больше вероятность, что нужный байт будет содержаться в этой быстрой памяти. Очевидно, что самый лучший вариант — это когда объем кэш-памяти соответствует объему всей оперативной памяти. В этом случае вся остальная память становится ненужной. Противоположная ситуация — 1 байт кэш-памяти тоже не имеет практического значения, так как вероятность того, что нужная информация окажется в этом байте, стремится к нулю. Практически, диапазон используемой кэш-памяти колеблется в пределах 16—64 КБ. На самом деле реализация кэш-систем не так проста, как это может показаться на первый взгляд. Микропроцессор должен не только читать из памяти, но и писать в нее. Что случится, если процессор занесет новую информацию в кэш-память, а перед использованием этой информации она будет изменена в основной памяти. Во избежание подобной ситуации иногда реализуется метод, названный записью через кэш-память. Очевидно, что этот метод снижает быстродействие системы, поскольку приходится писать не только в кэш-память. Хуже того, микропроцессору может понадобиться информация, которую он только что записал и которая еще не была перезагружена в кэш-память. Целостность памяти — это одна из самых больших проблем разработчиков кэш-памяти. Все вопросы по преодолению этих проблем были возложены на отдельную микросхему —"кэш-контроллер. Еще одна разновидность архитектуры оперативной памяти компьютера — это ее разбивка на отдельные секции и работа с этими секциями как с малой кэш-памятью. Большая скорость доступа к ограниченным областям памяти является особенностью некоторых специфических микросхем, которые позволяют некоторому объему, но не всей памяти, быть считанному без цикла Ожидания. Этот подход требует специальных RAM-микросхем, которые делят свои адреса по страницам. Такая технология получила название режима страничного доступа. Эти специальные микросхемы обеспечивают очень быстрый доступ в одном из двух направлений их организаций. Если требуется чтение или запись информации, хранящейся на определенной странице памяти, и предыдущая команда по работе с памятью использовала информацию с той жи страницы, цикла ожидания не требуется. Однако при переходе с одной страницы на другую циклы ожидания неизбежны. Следующая интересная технология, названная interleaved memory, очень похожа на ОЗУ страничного режима. Она существенно Повышает скорость обращения к памяти, но не имеет ограничений по страничной разбивке. При использовании этой технологии вся оперативная память разбивается на два или большее число банков. Последовательность битов хранится в разных банках, поэтому микропроцессор обращается то к одному, то к другому банку при чтении этой последовательности. Во время обращения к одному банку другой реализует цикл обновления, и поэтому процессору не приходится ждать. И только если микропроцессору приходится читать несмежные биты, статус ожидания неминуем, но вероятность его по явления уменьшается. Наиболее типовая реализация этой технологии представ ляется разбивкой оперативной памяти на два банка, а следовательно, вероятность возникновения ожидания - 50%. Четы рехбанковая организация уменьшает эту вероятность до 25% Так как данная технология не требует применения специальных микросхем памяти, она является наиболее удобной для повышения скорости системы. Кроме того, OH;

I может совмещаться с ОЗУ страничного режима, еще больше увеличивая оперативность. Помимо оперативной памяти существует еще и постоянная память (ПЗУ). Ее главное отличие от 03У — невозможность в процессе работы изменить состоянш ячеек ПЗУ. В свою очередь и эта память делится на постоя шую и ренрограммируемую. Принципы ее функционирования понятны из названия.

1. ОПЕРАТИВНАЯ ПАМЯТЬ Из микросхем памяти (RAM — Random Access Memory, память с произвольным доступом) используются два основных типа: статическая (SRAM — Static RAM) и динамическая (DRAM - Dynamic RAM). В статической памяти элементы (ячейы ) построены на различных вариантах триггеров — схем с двумя устойчивыми состояниями. После записи бита в такую ячейку, она может пребывать в этом состоянии сколько иодно долго необходимо только наличие питания. При обращении к микросхеме статической памяти на нее подаето: полный адрес, который при помощи внутреннего дешифратора преобразуется в сигналы выборки конкретных ячеек. Ячейки статической памяти имеют малое время срабатывания (единицыдесятки наносекунд), однако микросхемы на их основе имеют низкую удельную плотность данных (перядка единиц Мбит на корпус) и высокое энергопотребление. Поэтому статическая память используется в основном в качестве буферной (кэш-память).. • В динамической памяти ячейки построены на основе областей с накоплением зарядов, занимающих гораздо меньшую площадь, нежели триггеры, и практически не- потребляющих энергии при хранении. При записи бита в такую ячейку в ней формируется электрический заряд, сохраняющийся в течение нескольких миллисекунд;

для постоянного сохранения заряда ячейки необходимо регенерировать — перезаписывать содержимое для восстановления зарядов. Ячейки микросхем динамической памяти организованы в виде прямоугольной (обычно — квадратной) матрицы;

при обращении к микросхеме на ее входы вначале подастся адрес строки матрицы, сопровождаемый сигналом RAS (Row Address Strobe — строб адреса строки), а через некоторое время — адрес столбца, сопровождаемый сигналом CAS (Column Address Strobe — строб адреса столбца). При каждом обращении к ячейке регенерируют все ячейки выбранной строки, поэтому для полной регенерации матрицы достаточно перебрать адреса строк. Ячейки динамической памяти имеют большее время срабатывания (десятки-сотни наносекунд), но большую удельную плотность (порядка десятков Мбит на корпус) и меньшее энергопотребление. Динамическая память используется в качестве основной. Обычные виды SRAM и DRAM называют также асинхронными, поскольку установка адреса, подача управляющих сигналов и чтение/запись данных могут выполняться в произвольные моменты времени — необходимо только соблюдение временных соотношений между этими сигналами. В эти временные соотношения включены так называемые охранные интервалы, необходимые для стабилизации сигналов, не позволяющих достичь теоретически возможного быстродействия Память памяти. Существуют также синхронные виды памяти, получающие внешний синхросигнал, к импульсам которого жестко привязаны моменты подачи адресов и обмена данными;

помимо экономии времени на охранных интервалах, они позволяют более полно использовать внутреннюю конвейеризацию и блочный доступ. FPM DRAM (Fast Page Mode DRAM - динамическая память с быстрым страничным доступом). Память со страничным доступом позволяет ускорить блочные передачи, когда весь блок данных или его часть находится внутри одной строки матрицы, называемой в этой системе страницей, и снизить накладные расходы на регенерацию памяти. EDO (Extended Data Out — расширенное время удержания данных на выходе) фактически представляют собой обычные микросхемы FPM, на выходе которых установлены регистры-защёлки данных. При страничном обмене такие микросхемы работают в режиме простого конвейера: удерживают на выходах данных содержимое последней выбранной ячейки, в то время как на их входы уже подается адрес следующей выбираемой ячейки. Это позволяет примерно на 15% по сравнению с FPM ускорить процесс считывания последовательных массивов данных. При случайной адресации такая память ничем не отличается от обычной. BEDO (Burst EDO - EDO с блочным доступом) - память на основе EDO, работающая ае одиночными, а пакетными циклами чтения/записи. Современные процессоры, благодаря внутреннему и внешнему кэшированию команд и данных, обмениваются с основной памятью преимущественно блоками слов максимальной ширины. В случае памяти BEDO отпадает необходимость постоянной подачи последовательных адресов на входы микросхем с соблюдением требуемых временных задержек — достаточно перейти к очередному слову отдельным сигналом. SDRAM (Synchronous DRAM - синхронная динамическая память) — память с синхронным доступом, работающая быстрее обычной асинхронной (FPM/EDO/BEDO). Помимо синхронного метода доступа SDRAM использует внутреннее разделение массива памяти на два независимых банка, что позволяет совмещать выборку из одного банка с установкой адреса в другом банке. SDRAM также поддерживает блочный обмен. Основная выгода от использования SDRAM состоит в поддержке последовательного доступа в синхронном режиме, где не требуется дополнительных тактов ожидания. При случайном доступе SDRAM работает практически с той же скоростью, что и FPM/EDO. РВ SRAM (Pipelined Burst SRAM - статическая память с блочным конвейерным доступом) - разновидность синхронных SRAM с внутренней конвейеризацией, за счет чего примерно вдвое повышается скорость обмена блоками данных. В современных компьютерах оперативная память конструктивно изготавливается в виде независимых модулей разной емкости, которые устанавливаются в соответствующие разъемы на материнской плате: — DIP (Dual In line Package — корпус с двумя рядами выводов) — классические микросхемы, применявшиеся в блоках основной памяти XT и ранних AT, а сейчас — в блоках кэш-памяти;

— SIP (Single In line Package — корпус с одним рядом выводов) — микросхема с одним рядом выводов, устанавливаемая вертикально;

— SIPP (Single In line Pinned Package — модуль с одним рядом проволочных выводов) — модуль памяти, вставляемый в панель наподобие микросхем DIP/SIP;

применялся в ранних AT;

— SIMM (Single In line Memory Module — модуль памяти с одним рядом контактов) — модуль памяти, вставляемый в зажимающий разъем;

применяется во всех современных платах, а также во многих адаптерах, принтерах и прочих устройствах. SIMM имеет контакты с двух сторон модуля, но все они соединены между собой, образуя как бы один ряд контактов;

— DIMM (Dual In line Memory Module — модуль памяти с двумя рядами контактов) — модуль памяти, похожий на SIMM, но с раздельными контактами (обычно 2x84), за счет чего увеличивается разрядность или число банков памяти в модуле. Применяется Е последних платах для Pentium и во всех платах для Pentium II и старше. На SIMM в настоящее время устанавливаются преимущественно микросхемы FPM/EDO/BEDO, а на DIMM EDO/BEDO/SDRAM.

Pages:     | 1 |   ...   | 10 | 11 || 13 | 14 |   ...   | 27 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.