WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 5 | 6 || 8 | 9 |

«; ...»

-- [ Страница 7 ] --

Сравнение старой и новой реализаций Между заголовками буферов и новой структурой b i o существуют важные отли чия. Структура b i o представляет операцию ввода-вывода, которая может включать одну или больше страниц в физической памяти. С другой стороны, заголовок буфера связан с одним дисковым блоком, который занимает не более одной страницы па мяти. Поэтому использование заголовков буферов приводит к ненужному делению запроса ввода-вывода на части, размером в один блок, только для того, чтобы их по том снова объединить. Работа со структурами b i o выполняется быстрее, эта струк тура может описывать несмежные блоки и не требует без необходимости разбивать операции ввода-вывода на части.

Переход от структуры s t r u c t b u f f e r _ h e a d к структурам s t r u c t b i o позволяет получить также и другие преимущества.

300 Глава • Структура bio может легко представлять верхнюю память (см. главу 11), так как структура s t r u c t bio работает только со страницами физической памяти, а не с указателями.

• Структура bio может представлять как обычные страничные операции ввода вывода, так и операции непосредственного (direct) ввода-вывода (т.е. те, кото рые не проходят через страничный кэш;

страничный кэш обсуждается в гла ве 15 ).

• Структура bio позволяет легко выполнять операции блочного ввода-вывода типа распределения-аккумуляции (scatter-gather), в которых данные находятся в нескольких страницах физической памяти.

• Структура bio значительно проще заголовка буфера, потому что она содержит только минимум информации, необходимой для представления операции блоч ного ввода-вывода, а не информацию, которая связана с самим буфером.

Тем не менее заголовки буферов все еще необходимы для функций, которые вы полняют отображение дисковых блоков на страницы физической памяти. Структура bio не содержит никакой информации о состоянии буфера, это просто массив век торов, которые описывают один или более сегментов данных одной операции блоч ного ввода-вывода, плюс соответствующая дополнительная информация. Структура buffer_head необходима для хранения информации о буферах. Применение двух отдельных структур позволяет сделать размер обеих этих структур минимальным.

Очереди запросов Для блочных устройств поддерживаются очереди запросов (request queue), в которых хранятся ожидающие запросы на выполнение операций блочного ввода-вывода.

Очередь запросов представляется с помощью структуры request_queue, которая определена в файле . Очередь запросов содержит двухсвязный список запросов и соответствующую управляющую информацию. Запросы добавля ются в очередь кодом ядра более высокого уровня, таким как файловые системы.

Пока очередь запросов не пуста, драйвер блочного устройства, связанный с оче редью, извлекает запросы из головы очереди и отправляет их на соответствующее блочное устройство. Каждый элемент списка запросов очереди— это один запрос, представленный с помощью структуры s t r u c t request.

Запросы Отдельные запросы представляются с помощью структуры s t r u c t request, ко торая тоже определена в файле . Каждый запрос может состоять из более чем одной структуры bio, потому что один запрос может содержать обра щение к нескольким смежным дисковым блокам. Обратите внимание, что хотя бло ки на диске и должны быть смежными, данные этих блоков не обязательно должны быть смежными в физической памяти— каждая структура bio может содержать не сколько сегментов (вспомните, сегменты — это непрерывные участки памяти, в кото рых хранятся данные блока), а запрос может состоять из нескольких структур bio.

Уровень блочного ввода-вывода Планировщики ввода-вывода Простая отправка запросов на устройство ввода-вывода в том же порядке, в ко тором эти запросы направляет ядро, приводит к очень плохой производительности.

Одна из наиболее медленных операций, которые вообще могут быть в компьютере,— это поиск по жесткому диску. Операция поиска — это позиционирование головки жесткого диска на определенный блок, которое может запять много миллисекунд.

Минимизация количества операций поиска чрезвычайно критична для производи тельности всей системы.

Поэтому ядро не отправляет все запросы на выполнение операций блочного вво да-вывода жесткому диску в том же порядке, в котором они были получены, или сра зу же, как только они были получены. Вместо этого, оно выполняет так называемые операции слияния (объединения, merging) и сортировка (sorting), которые позволяют зна чительно увеличить производительность всей системы2. Подсистема ядра, которая выполняет эти операции называется планировщиком ввода-вывода (J/0 scheduler).

Планировщик ввода-вывода разделяет дисковые ресурсы между ожидающими в очереди запросами впода-вывода. Это выполняется путем объединения и сортировки запросов ввода-вывода, которые находятся в очереди. Планировщик ввода-вывода не нужно путать с планировщиком выполнения процессов (см. главу 4, "Планирование выполнения процессов"), который делит ресурсы процессора между процессами си стемы. Эти две подсистемы похожи, но это— не одно и то же. Как планировщик выполнения процессов, так и планировщик ввода-вывода выполняют виртуализацию ресурсов для нескольких объектов. В случае планировщика процессов выполняется виртуализация процессора, который совместно используется процессами системы.

Это обеспечивает иллюзию того, что процессы выполняются одновременно, и яв ляется основой многозадачных операционных систем с разделением времени, таких как Unix. С другой стороны, планировщики ввода-вывода выполняют виртуализацию блочных устройств для ожидающих выполнения запросов блочного ввода-вывода.

Это делается для минимизации количества операций поиска по жесткому диску и для получения оптимальной производительности дисковых операций.

Задачи планировщика ввода-вывода Планировщик ввода-вывода работает управляя очередью запросов блочного устройства. Он определяет, в каком порядке должны следовать запросы в очере ди и в какое время каждый запрос должен передаваться на блочное устройство.

Управление производится с целью уменьшения количества операций поиска по жесткому диску, что значительно повышает общее быстродействие. Определение "об щее" здесь существенно. Планировщик ввода-вывода ведет себя "нечестно" по отно шению к некоторым запросам и за счет этого повышает производительность систе мы в целом.

Это необходимо подчеркнуть особо. Системы, не имеющие таких функций или в которых эти функции плохо реализованы, будут иметь очень плохую производительность даже при небольшом количестве операций блочного ввода-вывода.

302 Глава Планировщики ввода-вывода выполняют две основные задачи: объединение и со ртировку. Объединение — это слияние нескольких запросов в один. В качестве при мера рассмотрим запрос, который поставлен в очередь кодом файловой системы, например чтобы прочитать порцию данных из файла (конечно, на данном этапе все уже выполняется на уровне секторов и блоков, а не на уровне файлов). Если в очере ди уже есть запрос на чтение из соседнего сектора диска (например, другой участок того же файла), то два запроса могут быть объединены в один запрос для работы с одним или несколькими, расположенными рядом, секторами диска. Путем слия ния запросов планировщик ввода-вывода уменьятает затраты ресурсов, связанные с обработкой нескольких запросов, до уровня необходимого на обработку одного за проса. Наиболее важно здесь то, что диск выполняет всего одну команду и обслужи вание нескольких запросов может быть выполнено вообще без применения поиска.

Следовательно, слияние запросов уменьшает накладные расходы и минимизирует количество операций поиска.

Теперь предположим, что наш запрос на чтение помещается в очередь запросов, но там нет других запросов на чтение соседних секторов. Поэтому нет возможности выполнить объединение этого запроса с другими запросами, находящимися в очере ди. Можно просто поместить запрос в конец очереди. Но что если в очереди есть запросы к близкорасположенным секторам диска? Не лучше ли будет поместить но вый запрос в очередь где-то рядом с запросами к физически близко расположенным секторам диска. На самом деле планировщики ввода-вывода именно так и делают, Вся очередь запросов поддерживается в отсортированном состоянии по секторам, чтобы последовательность запросов в очереди (насколько это возможно) соответ ствовала линейному движению по секторам жесткого диска. Цель состоит в том, что бы не только уменьшить количество перемещений в каждом индивидуальном случае, но и минимизировать общее количество операций поиска таким образом, чтобы головка двигалась по прямой линии. Это аналогично алгоритму, который использу ется в лифте (elevator) — лифт не прыгает между этажами. Вместо этого он плавно пытается двигаться в одном направлении. Когда лифт доходит до последнего этажа в одном направлении, он начинает двигаться в другую сторону. Из-за такой аналогии планировщик ввода-вывода (а иногда только алгоритм сортировки) называют лифто вым планировщиком (алгоритмом лифта, elevator).

Лифтовой алгоритм Линуса Рассмотрим некоторые планировщики ввода-вывода, применяемые в реальной жизни. Первый планировщик ввода-вывода, который мы рассмотрим, называется Linus Elevator (лифтовой алгоритм Линуса). Это не опечатка, действительно существу ет лифтовой планировщик, разработанный Лисусом Торвальдсом и названный в его честь! Это основной планировщик ввода-вывода в ядре 2.4. В ядре 2.6 его заменили другими планировщиками, которые мы ниже рассмотрим. Однако поскольку этот ал горитм значительно проще новых и в то же время позволяет выполнять почти те же функции, то он заслуживает внимания.

Лифтовой алгоритм Линуса позволяет выполнять как объединение, так и со ртировку запросов. Когда запрос добавляется в очередь, вначале он сравнивается со всеми ожидающими запросами, чтобы обнаружить все возможные кандидаты па объединение. Алгоритм Линуса выполняет два типа объединения: добавление в начало Уровень блочного ввода-вывода запроса (front merging) и добавление в конец запроса (back merging). Тип объединения со ответствует тому, с какой стороны найдено соседство. Если новый запрос следует перед существующим, то выполняется вставка в начало запроса. Если новый запрос следует сразу за существующим — добавление выполняется в конец очереди. В связи с тем, что секторы, в которых хранится файл, расположены по мере увеличения но мера сектора и операции ввода-вывода чаще всего выполняются от начала файла до конца, а не наоборот, то при обычной работе вставка в начало запроса встречается значительно реже, чем вставка в конец. Тем не менее алгоритм Линуса проверяет и выполняет оба типа объединения, Если попытка объединения была неудачной, то определяется возможное место вставки запроса в очередь (положение в очереди, в котором новый запрос наилуч шим образом вписывается по номеру сектора между окружающими запросами). Если такое положение находится, то новый запрос помещается туда. Если подходящего места не найдено, то запрос помещается в конец очереди. В дополнение к этому, если в очереди найден запрос, который является достаточно старым, то новый за прос также добавляется в конец очереди. Это предотвращает ситуацию, в которой наличие большого количества запросов к близко расположенным секторам при водит к недостатку обслуживания других запросов. К сожалению, такая проверка "на старость" не очень эффективна. В рассмотренном алгоритме не предпринимает ся никаких попыток обслуживания запросов в заданных временных рамках, а просто прекращается процесс сортировки-вставки при наличии определенной задержки.

Это в свою очередь приводит к задержке в обслуживании, что было веской причи ной для доработки планировщика ввода-пывода ядра 2.4.

Итак, когда запрос добавляется в очередь возможны четыре типа действий. Вот эти действия в необходимой последовательности.

• Если запрос к соседнему сектору находится в очереди, то существующий за прос и новый объединяются в один.

• Если в очереди существует достаточно старый запрос, то новый запрос поме щается в конец очереди, чтобы предотвратить отказ обслуживания для других запросов, которые долгое время находятся в очереди.

• Если для секторов данного запроса в очереди существует позиция, которая со ответствует рациональному перемещению между секторами, то данный запрос помещается в эту позицию, что позволяет поддерживать очередь в отсортиро ванном состоянии.

• И наконец, если такая позиция не найдена, то запрос помещается в конец оче реди.

Планировщик ввода-вывода с лимитом по времени Планировщик ввода-выпода с лимитом по времени (Deadline I/O scheduler, dead line-планировщик ввода-вывода) разработан с целью предотвращения задержек об служивания, которые могут возникать для алгоритма Линуса. Если задаться целью только минимизировать количество операций поиска, то при большом количестве операций ввода-вывода из одной области диска могут возникать задержки обслужи вания для операций с другими областями диска, причем на неопределенное время.

Более того, поток запросов к одной и той же области диска может привести к тому, Глава что запросы к области диска, которая находится далеко от первой, никогда не будут обработаны. Такой алгоритм не может обеспечить равнодоступность ресурсов.

Хуже того, общая проблема задержки обслуживания запросов приводит к частной проблеме задержки обслуживания чтения при обслуживании записи (writes-starving-reads).

Обычно операции записи могут быть отправлены на обработку диском в любой мо мент, когда ядру это необходимо, причем это выполняется полностью асинхронно по отношению к пользовательской программе, которая сгенерировала запрос запи си. Обработка же операций чтения достаточно сильно отличается. Обычно, когда пользовательское приложение отправляет запрос на чтение, это приложение бло кируется до тех пор, пока запрос не будет выполнен, т.е. запросы чтения возникают синхронно по отношению к приложению, которое эти запросы генерирует. В связи с этим время реакции системы, в основном, не зависит от латентности записи (вре мени задержки, которое необходимо на выполнение запроса записи), а задержки чтения (время, которое необходимо на выполнение операции чтения) очень важно минимизировать. Латентность записи мало влияет на производительность пользова тельских программ, но эти программы должны "с дрожащими руками" ждать завер шение каждого запроса чтения. Следовательно, задержки чтения очень важны для производительности системы.

Проблему усугубляет то, что запросы чтения обычно зависят друг от друга.

Например, рассмотрим чтение большого количества файлов. Каждая операция чтения выполняется небольшими порциями, которые соответствуют размеру буфе ра. Приложение не станет считывать следующую порцию данных (или следующий файл), пока предыдущая порция данных не будет считана с диска и возвращена при ложению. Следовательно, если существует задержка в обслуживании одного запро са чтения, то для программы эти задержки складываются, и общая задержка может стать недопустимой. Принимая во внимание, что синхронность и взаимозависимость запросов чтения приводят к большим задержкам обработки этих запросов (что в свою очередь сильно влияет на производительность системы), в планировщике вво да-вывода с лимитом по времени были добавлены некоторые функции, которые по зволяют гарантированно минимизировать задержки в обработке запросов вообще и в обработке запросов чтения в частности.

Следует обратить внимание, что уменьшение времени задержки в обслуживании может быть выполнено только за счет уменьшения общего быстродействия системы.

Даже для алгоритма Линуса такой компромисс существует, хотя и в более мягкой форме. Алгоритм Линуса мог бы обеспечить и большую общую пропускную способ ность (путем уменьшения количества операций поиска), если бы запросы всегда по мещались в очередь в соответствии с номерами секторов и не выполнялась проверка на наличие старых запросов и вставка в конец очереди. Хотя минимизация количе ства операций поиска и важна, тем не менее неопределенное время задержки тоже не очень хорошая вещь. Поэтому deadline-планировщик и выполняет много работы для уменьшения задержек в обслуживании. Достаточно сложно одновременно обе спечить равнодоступность и максимизировать общую пропускную способность.

Однако все же не желательно задерживать операции записи на неопределенное время..Запросы записи также должны немедленно отправляться на диск, но это не так критично, как в случае за просов чтения.

Уровень блочного ввода-вывода В планировщике ввода-вывода, с лимитом по времени с запросом связано предель ное время ожидания (expiration time). По умолчанию этот момент времени равен 500 миллисекунд в будущем для запросов чтения и 5 секунд в будущем для запросов записи. Планировщик ввода-вывода с лимитом по времени работает аналогично планировщику Линуса — он также поддерживает очередь запросов в отсортирован ном состоянии в соответствии с физическим расположением сектора на диске. Эта очередь называется отсортированной (sorted queue). Когда запрос помещается в от сортированную очередь, то deadlme-планировщик ввода-вывода выполняет объеди нение и вставку запросов так же, как это делается в лифтовом алгоритме Линуса4.

Кроме того, планировщик с лимитом по времени помещает каждый запрос и во вто рую очередь, в зависимости от типа запроса. Запросы чтения помещаются в специ альную очередь FIFO запросов чтения, а запросы записи— в очередь FIFO запросов записи. В то время как обычная очередь отсортирована по номеру сектора на диске, две очереди FIFO (first-in first-out— первым поступил, первым обслужен) сортируют ся по времени поступления запроса, так как новые запросы всегда добавляются в ко нец очереди. При нормальной работе deadline-планировщик ввода-вывода получает запросы из головы отсортированной очереди и помещает их в очередь диспетчери зации. Очередь диспетчеризации отправляет запросы жесткому диску. Это приводит к минимизации количества операций поиска.

Если же для запроса, который находится в голове FIFO-очереди записи или FIFO очереди чтения, истекает период ожидания (т.е. текущий момент времени становит ся большим, чем момент времени, когда истекает период ожидания, связанный с запросом), то deadline-планировщик начинает обрабатывать запросы из соответству ющей очереди FIFO. Таким образом планировщик с лимитом по времени пытается гарантировать, что запросы не будут ожидать дольше максимального периода ожида ния (рис. 13.3).

Диск Очередь FIFO запросов чтения Очередь FIFO запросов записи Очередь диспетчеризации Отсортированная очередь Три очереди планировщика ввода-вывода с лимитом по времени Рис. 13.3.

Следует заметить, что deadline-плаиировщик ввода-вывода не дает строгой га рантии времени задержки запроса. Однако он, в общем, позволяет отправлять на обработку запросы до или вскоре после того, как истек их период ожидания. Это позволяет предотвратить ситуацию недостатка обслуживания запросов. Так как для запросов чтения максимальное время ожидания значительно больше, чем для запро сов записи, то планировщик с лимитом по времени также позполяет гарантировать, что обслуживание запросов записи не приведет к недостатку обслуживания запросов чтения. Больший приоритет запросов чтения позволяет минимизировать время за держки при операциях чтения.

Для deadline-планировщика операция вставки в начало запроса выполняется опционально. Обычно невыполнение вставки в начало запроса не приводит к проблемам, так как в большинстве случаев количество запросов, которые могут быть добавлены в начало, очень незначительно.

306 Глава Код планировщика ввода-вывода с лимитом по времени находится в файле drivers/block/deadline-iosched.с.

Прогнозирующий планировщик ввода-вывода Хотя планировщик с лимитом по времени ввода-вывода и выполняет работу по минимизации задержек чтения, это делается ценой уменьшения глобального бы стродействия. Рассмотрим систему с большой активностью записи. Каждый раз, ког да приходит запрос на чтение, планировщик сразу же начинает его выполнять. Это приводит к тому, что сразу же запускается операция поиска того места на диске, где будет выполнено чтение и сразу после выполнения чтения снова осуществляется по иск того места, где будет выполнена запись, и так повторяется при каждом запросе чтения. Большой приоритет запросов чтения вещь хорошая, но две операции поис ка на каждый запрос чтения (перемещение в точку чтения и обратно в точку записи) очень плохо сказываются на общей дисковой производительности. Цель прогнози рующего планировщика ввода-вывода (anticipatory I / O scheduler) — обеспечение хо роших характеристик по задержкам чтения и в то же время обеспечение отличной общей производительности.

Прогнозирующий планировщик построен на базе планировщика ввода-вывода с лимитом но времени. Поэтому он не особо отличается. В прогнозирующем плани ровщике реализованы три очереди (плюс очередь диспетчеризации) и обработка времени ожидания для каждого запроса, так же как и В случае deadline-планировщи ка. Главное отличие состоит в наличии дополнительного эвристического прогнозирова ния (anticipation heuristic).

Прогнозирующий планировщик ввода-вывода пытается минимизировать "шторм операций поиска", который следует за каждым запросом чтения во время выполне ния других дисковых операций. Когда поступает запрос на чтение, он обрабатывает ся в рамках своего времени ожидания как обычно. После того как запрос отправлен жесткому диску, прогнозирующий планировщик сразу не возвращается к выполне нию предыдущих запросов и не запускает операцию поиска сразу же. Он абсолютно ничего не делает в течение нескольких миллисекунд (значение этого периода време ни можно настраивать, а по умолчанию оно равно 6 миллисекунд). Существует боль шой шанс, что за эти несколько миллисекунд приложение отправит еще один запрос на чтение. Все запросы к соседним секторам диска выполняются немедленно. После.того как время ожидания истекает, прогнозирующий планировщик возвращается к выполнению ранее оставленных запросов и выполняет поиск соответствующего ме ста на диске.

Важно обратить внимание, что те несколько миллисекунд, в течение которых планировщик ожидает на новые запросы (т.е. время, которое планировщик тратит в предвещании нового запроса), полностью окупаются, даже если это позволяет ми нимизировать всего лишь небольшой процент операций поиска при выполнении запросов чтения в случае большого количества других запросов. Если во время ожи дания приходит запрос к соседней области диска, то это позволяет избежать двух операций поиска. Чем больше за это время приходит запросов к соседним областям диска, тем большего количества операций поиска можно избежать.

Конечно, если в течение периода ожидания не было никакой активности, то про гнозирующий планировщик зря потратит эти несколько миллисекунд.

Уровень блочного ввода-вывода Ключевой момент для получения максимальной производительности от прогно зирующего планировщика — правильно предсказать действия приложений и файло вых систем. Это выполняется на основе эвристических алгоритмов и сбора статики.

Прогнозирующий планировщик ведет статистику операций блочного ввода-вывода по каждому процессу в надежде предсказать действия приложений. При достаточно высоком проценте точных предсказаний прогнозирующий планировщик способен значительно снизить затраты на поиск при выполнении операций чтения и в то же время уделить внимание тем запросам, которые критичны для производительности системы. Это позволяет прогнозирующему планировщику минимизировать задержки чтения и в то же время уменьшить количество и продолжительность операций по иска, что в свою очередь проявляется в уменьшении времени реакции системы и в увеличении ее производительности.

Код прогнозирующего планировщика находится в файле d r i v e r s / b l o c k / a s - i o s c h e d. с дерева исходных кодов ядра.

Этот планировщик используется в ядре Linux по умолчанию и хорошо работает для большинства типов нагрузки на систему. Он идеальный для серверов, однако ра ботает очень плохо в случае определенных типов загрузки, которые встречаются не очень часто, как, например, в случае баз данных, рассчитанных на большое количе ство операций поиска но диску.

Планировщик ввода-вывода с полностью равноправными очередями Планировщик ввода-вывода с полностью равноправными очередями (Complete Fair Queuing, CFQ) был разработан для определенного типа нагрузок на систему, по на практике он позволяет получить хорошую производительность для широкого диа пазона типов нагрузки. Он фундаментальным образом отличается от всех ранее рас смотренных планировщиков ввода-вывода.

Планировщик CFQ распределяет все приходящие запросы ввода-вывода по определенным очередям на основании того, какой процесс прислал этот запрос.

Например, запросы от процесса foo идут в очередь foo, запросы от процесса bar — в очередь bar. В пределах каждой очереди запросы объединяются со смежными и со ртируются. Таким образом очереди поддерживаются в отсортированном состоянии, так же как и в случае других планировщиков ввода-вывода. Отличие планировщика CFQ состоит в том, что он поддерживает отдельную очередь для каждого процесса, который выполняет операции ввода-вывода.

После этого планировщик CFQ выполняет запросы из разных очередей по круго вому алгоритму, выполняя конфигурируемое количество запросов (по умолчанию 4) из каждой очереди, перед тем как перейти к следующей. Это позволяет получить равномерное распределение пропускной способности диска для каждого процесса в системе. Предполагаемое использование такого планировщика— мультимедийные приложения, для которых он позволяет гарантировать, что, например, аудиопро игрыватель всегда будет успевать вовремя заполнять аудиобуферы с диска. Тем не менее планировщик CFQ на практике хорошо работает для многих сценариев загру женности системы.

308 Глава Код CFQ планировщика находится в файле d r i v e r s / b l o c k / c f q - i o s c h e d. с.

Этот планировщик рекомендуется для офисных компьютеров, хотя хорошо работает практически для всех типов нагрузок, за исключением, может быть, уж очень экстре мальных типов загруженности.

Планировщик ввода-вывода nоор Четвертый, и последний, тип планировщика ввода-вывода— это планировщик noop (no operation, с отсутствием операций). Он назван так потому, что практиче ски ничего не делает. Этот планировщик не выполняет никакой сортировки или других операций для предотвращения поиска по устройству. Ему нет необходимости выполнять ничего, включая алгоритмы, которые минимизируют задержки и были рассмотрены для предыдущих планировщиков.

Планировщик ввода-вывода nоор выполняет только объединение приходящих за просов со смежными, которые находятся в очереди. Кроме этого, больше никаких функций у данного планировщика нет. Он просто обслуживает очередь запросов, ко торые передаются драйверу блочного устройства, в режиме FIFO.

Планировщик nоор не является полностью бесполезным. В том, что он ничего не делает, есть большой смысл. Он рассчитан на блочные устройства, которые позво ляют выполнять истинно произвольный доступ, такие как платы флеш-памяти. Если для блочного устройства нет накладных затрат, связанных с поиском по устройству, то нет и необходимости выполнять сортировку и вставку вновь приходящих запро сов, и планировщик nоор — идеальный вариант.

Код планировщика nоор находится в файле drivers/block/noop-iosched.с.

Он предназначен только для устройств с произвольным доступом.

Выбор планировщика ввода-вывода В ядрах серии 2.6 есть четыре планировщика ввода-вывода. Каждый из этих пла нировщиков может быть активизирован. По умолчанию все блочные устройства используют прогнозирующий планировщик ввода-вывода. Планировщик можно из менить, указав параметр ядра elevator=<плaниpoвщик> в командной строке при загрузке системы, где <планировщик> — это один из поддерживаемых типов плани ровщика, которые показаны в табл. 13.2.

Таблица 13.2. Возможные значения параметра e l e v a t o r Значение Тип планировщика Прогнозирующий as С полностью равноправными очередями cfq С лимитом по времени deadline С отсутствием операций (nоор) noop Например, указание параметра elevator=cfq в командной строке ядра при за грузке системы означает, что для всех блочных устройств будет использоваться пла нировщик с полностью равноправными очередями.

Уровень блочного ввода-вывода Резюме В этой главе были рассмотрены основы работы устройств блочного ввода-вывода, а также структуры данных, используемые для работы уровня ввода-вывода блоками:

структура bio, которая представляет выполняемую операцию ввода-вывода;

структу ра buffer_head, которая представляет отображение блоков на страницы памяти;

структура r e q u e s t, которая представляет собой отдельный запрос ввода-вывода.

После рассмотрения запросов ввода-вывода был описан их короткий, но важный путь, кульминацией которого является прохождение через планировщик ввода-вы вода. Были рассмотрены дилеммы, возникающие при планировании операций вво да-вывода, и четыре типа планировщика, которые на данный момент существуют в ядре Linux, а также планировщик ввода вывода из ядра 2.4 — лифтовой алгоритм Линуса.

Далее мы рассмотрим адресное пространство процесса.

310 Глава Адресное пространство процесса В главе 11, "Управление памятью", было рассказано о том, как ядро управляет физической намятью. В дополнение к тому, что ядро должно управлять своей памятью, оно также должно, управлять и адресным пространством процессов— тем, как память видится для каждого процесса в системе. Операционная система Linux — это операционная система с виртуальной памятью (virtual memory operating system), т.е. для всех процессов выполняется виртуализация ресурсов памяти. Для каждого процесса создается иллюзия того, что он один использует всю физическую память в системе. Еще более важно, что адресное пространство процессов может быть даже значительно больше объема физической памяти. В этой главе рассказывается о том, как ядро управляет адресным пространством процесса.

Адресное пространство процесса состоит из диапазона адресов, которые выде лены процессу, и, что более важно, в этом диапазоне выделяются адреса, которые процесс может так или иначе использовать. Каждому процессу выделяется "плоское" 32- или 64-битовое адресное пространство. Термин "плоское" обозначает, что адрес ное пространство состоит из одного диапазона адресов (например, 32-разрядное адресное пространство занимает диапазон адресов от 0 до 429496729). Некоторые операционные системы предоставляют сегментированное адресное простран ство — адресное пространство состоит больше чем из одного диапазона адресов, т.е.

состоит из сегментов. Современные операционные системы обычно предоставляют плоское адресное пространство. Размер адресного пространства зависит от аппарат ной платформы. Обычно для каждого процесса существует свое адресное простран ство. Адрес памяти в адресном пространстве одного процесса не имеет никакого от ношения к такому же адресу памяти в адресном пространстве другого процесса. Тем не менее несколько процессов могут совместно использовать одно общее адресное пространство. Такие процессы называются потоками.

Значение адреса памяти — это заданное значение из диапазона адресов адресного пространства, как, например, 41021f000. Это значение идентифицирует определен ный байт в 32-битовом адресном пространстве. Важной частью адресного простран ства являются интервалы адресов памяти, к которым процесс имеет право доступа, как, например, 08048000-0804с000. Такие интервалы разрешенных адресов называ ются областями памяти (memory area). С помощью ядра процесс может динамически добавлять и удалять области памяти своего адресного пространства.

Процесс имеет право доступа только к действительным областям памяти. Более того, на область памяти могут быть установлены права только для чтения или запрет на выполнение. Если процесс обращается к адресу памяти, который не находится в действительной области памяти, или доступ к действительной области выполня ется запрещенным образом, то ядро уничтожает процесс с ужасным сообщением "Segmentation Fault" (ошибка сегментации).

Области памяти могут содержать следующую нужную информацию.

• Отображение выполняемого кода из выполняемого файла в область памяти процесса, которая называется сегментом кода (text section).

• Отображение инициализированных переменных из выполняемого файла в об ласть памяти процесса, которая называется сегментом данных (data section).

• Отображение страницы памяти, заполненной нулями, в область памяти про цесса, которая содержит неинициализированные глобальные переменные и называется сегментом bss1 (bss section). Нулевая страница памяти (zero page, стра ница памяти, заполненная нулями) — это страница памяти, которая полностью заполнена нулевыми значениями и используется, например, для указанной выше цели.

• Отображение страницы памяти, заполненной нулями, в память процесса, ко торая используется в качестве стека процесса пространства пользователя (не нужно путать со стеком процесса в пространстве ядра, который является от дельной структурой данных и управляется и используется ядром).

• Дополнительные сегменты кода, данных и BSS каждой совместно используемой библиотеки, таких как библиотека libc и динамический компоновщик, которые загружаются в адресное пространство процесса.

• Все файлы, содержимое которых отображено в память.

• Все области совместно используемой памяти.

• Все анонимные отображения в память, как, например, связанные с функцией malloc().

Каждое действительное значение адреса памяти в адресном пространстве про цесса принадлежит только и только одной области памяти (области памяти не перекрываются). Как будет показано, для каждого отдельного участка памяти в вы полняющемся процессе существует своя область: стек, объектный код, глобальные переменные, отображенный в память файл и т.д.

Термин "BSS" сложился исторически и является достаточно старым. Он означает block started начинающийся с символа). Неинициализированные переменные в выпол by symbol (блок, няемом файле не хранятся, поскольку с ними не связано никакого значения. Тем не менее стан дарт языка С требует, чтобы неинициализированным переменным присваивалось определенное значение по умолчанию (обычно все заполняется нулями). Поэтому ядро загружает переменные (без их значений) из выполняемого файла в память и отображает в эту память нулевую страницу, тем самым переменным присваивается нулевое значение без необходимости зря тратить место в объектном файле на ненужную инициализацию.

В более новых версиях библиотеки giibc фушщия m a l l o c ( ) реализована через системный вызов ттар(), а не через вызов brk().

312 Глава Дескриптор памяти Ядро представляет адресное пространство процесса в виде структуры данных, ко торая называется дескриптором памяти. Эта структура содержит всю информацию, которая относится к адресному пространству процесса. Дескриптор памяти пред ставляется с помощью структуры s t r u c t mm_struct, которая определена в файле <1inux/sched.h> 3.

Рассмотрим эту структуру с комментариями, поясняющими назначение каждого поля.

struct mm_struct { struct vm_area_struct *mmap;

/* список областей памяти */ struct rb_root mm_rb;

/* красно-черное дерево областей памяти */ struct vm_area_struct *mmap_cache;

/*последняя использованная область памяти */ unsigned long free_area_cache;

/* первый незанятый участок адресного пространства */ pgd_t *pgd;

/* глобальный каталог страниц */ atomic_t mm_users;

/* счетчик пользователей адресного пространства */ atomic_t mm_count;

/* основной счетчик использования */ int map_count;

/* количество областей памяти */ struct rw_semaphore mmap_sem;

/* семафор для областей памяти */ spinlock_t page_table_lock;

/* спин-блокировка таблиц страниц */ struct list_head mmlist;

/* список всех структур mm_struct */ unsigned long start_code;

/* начальный адрес сегмента кода */ unsigned long end code;

/* конечный адрес сегмента кода */ unsigned long start_data;

/* начальный адрес сегмента данных */ unsigned long end_data;

/* конечный адрес сегмента данных */ unsigned long start_brk;

/* начальный адрес сегмента "кучи" */ unsigned long brk;

/* конечный адрес сегмента "кучи" */ unsigned long start_stack;

/* начало стека процесса */ unsigned long arg_start;

/* начальный адрес области аргументов */ unsigned long arg_end;

/* конечный адрес области аргументов */ unsigned long env_start;

/*начальный адрес области переменных среды */ unsigned long env_end;

/*конечный адрес области переменных среды */ unsigned long rss;

/* количество физических страниц памяти */ unsigned long total_vm;

/* общее количество страниц памяти */ unsigned long locked_vm;

/* количество заблокированных страниц памяти */ unsigned long def_flags;

/* флаги доступа, используемые по умолчанию */ unsigned long cpu_vm_mask;

/*MacKa отложенного переключения буфера TLB */ unsigned long swap_address;

/* последний сканированный адрес */ unsigned dumpable:l;

/* можно ли создавать файл core? */ int used_hugetlb;

/* используются ли гигантские страницы памяти (hugetlb)? */ Между дескриптором процесса, дескриптором памяти и соответствующими функциями существует тесная связь. Поэтому структура s t r u c t mm_struct и определена в заголовочном файле sched.h.

Адресное пространство процесса mm_context_t context;

/* данные, специфичные для аппаратной платформы */ int core_waiters;

/* количество потоков, ожидающих на создание файла core */ struct completion *core_startup_donc;

/* условная переменная начала создания файла core */ struct completion core_done;

/* условная переменная завершения создания файла core */ rwlock_t ioctx_l.ist_lock;

/* блокировка списка асинхронного ввода-вывода (AIO) */ struct kioctx *ioctx_list;

/* список асинхронного ввода-вывода (AIO) V struct kioctx default kioctx;

/* контекст асинхронного ввода вывода, используемый по умолчанию */ };

Поле mm_users — это количество процессов, которые используют данное адрес ное пространство. Например, если одно и то же адресное пространство совмест но используется двумя потоками, то значение поля mm_users равно двум. Поле ram_count — это основной счетчик использования структуры mm_struct. Наличие пользователей структуры, которым соответствует поле mm_users, приводит к уве личению счетчика mm_count на единицу. В предыдущем примере значение поля mm_count равно единице. Когда значение поля mm_users становится равным нулю (т.е. когда два потока завершатся), только тогда значение поля mm_count уменьша ется на единицу. Когда значение поля mm_count становится равным нулю, то на соответствующую структуру m m _ s t r u c t больше нет ссылок, и она освобождается, Поддержка двух счетчиков позволяет ядру отличать главный счетчик использова ния (mm_count) от количества процессов, которые используют данную структуру (mm_users).

Поля mmap и m m _ r b — это два различных контейнера данных, которые содержат одну и ту же информацию: информацию обо всех областях памяти в соответству ющем адресном пространстве. В первом контейнере эта информация хранится в виде связанного списка, а во втором— в виде красно-черного бинарного дерева.

Поскольку красно-черное дерево — это разновидность бинарного дерева, то, как и для всех типов бинарного дерева, количество операций поиска заданного элемента в нем равно О(log (n) ). Более детальное рассмотрение красно-черных деревьев най дете в разделе "Списки и деревья областей памяти".

Хотя обычно в ядре избегают избыточности, связанной с введением нескольких структур для хранения одних и тех же данных, тем не менее в данном случае эта избыточность очень кстати. Контейнер mmap — это связанный список, который по зволяет очень быстро проходить по всем элементам. С другой стороны, контейнер mm_rb — это красно-черное дерево, которое очень хорошо подходит для поиска за данного элемента. Области памяти будут рассмотрены в этой главе несколько ниже, Все структуры mm_struct объединены в двухсвязный список с помощью нолей mmlist. Первым элементом этого списка является дескриптор памяти init_mm, ко торый является дескриптором памяти процесса ink. Этот список защищен от конку рентного доступа с помощью блокировки m m l i s t _ l o c k, которая определена в фай ле k e r n e l / f o r k. с. Общее количество дескрипторов памяти хранится в глобальной целочисленной переменной mmlist_nr, которая определена в том же файле.

314 Глава Выделение дескриптора памяти Указатель на дескриптор памяти, выделенный для какой-либо задачи, хранится в поле mm дескриптора процесса этой задачи. Следовательно, выражение current->rnm позволяет получить дескриптор памяти текущего процесса. Функция copy_mm() ис пользуется для копирования дескриптора родительского процесса в дескриптор по рожденного процесса во время выполнения вызова fоrk ( ). Структура m m _ s t r u c t выделяется из слябового кэша mm_cachep с помощью макроса allocate_mm (). Это реализовано в файле k e r n e l / f o r k. с. Обычно каждый процесс получает уникаль ный экземпляр структуры m m _ s t r u c t и соответственно уникальное адресное про странство.

Процесс может использовать одно и то же адресное пространство совместно со своими порожденными процессами, путем указания флага CLONE_VM при выполне нии вызова c l o n e ( ). Такие процессы называются потоками. Вспомните из матери ала главы 3, "Управление процессами", что в операционной системе Linux в этом и состоит единственное существенное отличие между обычными процессами и потока ми. Ядро Linux больше никаким другим образом их не различает. Потоки с точки зрения ядра— это обычные процессы, которые просто совместно используют неко торые общие ресурсы.

В случае, когда указан флаг CLONE_VM, макрос a l l o c a t e _ m m ( ) не вызывается, а в поле mm дескриптора порожденного процесса записывается значение указателя на дескриптор памяти родительского процесса. Это реализовано с. помощью следующе го оператора ветвления в функции сору_mm ().

if (clone_flags & CLONE_VM) { /* * c u r r e n t — это родительский процесс * t s k — это процесс, порожденный в вызове fork() */ atomic_inc(¤t->mm->mm_users);

tsk->mm = current->mm;

} Удаление дескриптора памяти Когда процесс, связанный с определенным адресным пространством, завершает ся, то вызывается функция exit_mm(). Эта функция выполняет некоторые служеб ные действия и обновляет некоторую статистическую информацию. Далее вызыва ется функция input(), которая уменьшает на единицу значение счетчика количества пользователей mm_users для дескриптора памяти. Когда значение счетчика коли чества пользователей становится равным нулю, то вызывается функция m m d r o p ( ), которая уменьшает значение основного счетчика использования mm_count. Когда и этот счетчик использования наконец достигает нулевого значения, то вызывается функция free_mm(), которая возвращает экземпляр структуры mm_struct в слябо вый кэш mm_cachep с помощью вызова функции kmem_cache_fгее(), поскольку де-.

скриптор памяти больше не используется.

Адресное пространство процесса Структура mm_struct и потоки пространства ядра Потоки пространства ядра не имеют своего адресного пространства процесса и, следовательно, связанного с ним дескриптора памяти. Значение поля mm для потока пространства ядра равно NULL. Еще одно определение потока ядра — это процесс, ко торый не имеет пользовательского контекста.

Отсутствие адресного пространства— хорошее свойство, поскольку потоки ядра вообще не обращаются к памяти в пространстве пользователя (действительно, к ка кому адресному пространству им обращаться?). Поскольку потоки ядра не обращают ся к страницам памяти в пространстве пользователя, им вообще не нужен дескрип тор памяти и таблицы страниц (таблицы страниц обсуждаются дальше в этой главе).

Несмотря на это, потокам пространства ядра все же нужны некоторые структуры данных, такие как таблицы страниц, чтобы обращаться к памяти ядра. Чтобы обе спечить потоки ядра всеми данными без необходимости тратить память на дескрип тор памяти и таблицы страниц, а также процессорное время на переключение на новое адресное пространство и так далее, каждый поток ядра использует дескрип тор памяти задания, которое выполнялось перед ним.

Когда процесс запланирован на выполнение, то загружается адресное простран ство, на которое указывает поле mm этого процесса. Поле a c t i v e _ m m дескриптора процесса обновляется таким образом, чтобы указывать на новое адресное простран ство. Потоки ядра не имеют своего адресного пространства, поэтому значение поля mm для них равно NULL. Поэтому, когда поток ядра планируется на выполнение, ядро определяет, что значение ноля mm равно NULL, и оставляет загруженным предыдущее адресное пространство. После этого ядро обновляет поле active_mm дескриптора процесса для потока ядра, чтобы он указывал на дескриптор памяти предыдущего процесса. При необходимости поток ядра может использовать таблицы страниц предыдущего процесса. Так как потоки ядра не обращаются к памяти в пространстве пользователя, то они используют только ту информацию об адресном пространстве ядра, которая связана с памятью ядра и является общей для всех процессов.

Области памяти Области памяти (memory areas) представляются с помощью объектов областей памяти, которые хранятся в структурах типа v m _ a r e a _ s t r u c t. Эта структура опре делена в файле . Области памяти часто называются областями вирту альной памяти (virtual memory area, или VMA).

Структура v m _ a r e a _ s t r u c t описывает одну непрерывную область памяти в дан ном адресном пространстве. Ядро рассматривает каждую область памяти, как уни кальный объект. Для каждой области памяти определены некоторые общие свой ства, такие как права доступа и набор соответствующих операций. Таким образом, одна структура VMA может представлять различные типы областей памяти, напри мер файлы, отображаемые в память, или стек пространства пользователя. Это анало гично объектно-ориентированному подходу, который используется в подсистеме VFS (см.главу 12, "Виртуальная файловая система").

Ниже показана эта структура данных с комментариями, описывающими назначе ние каждого поля.

316 Глава struct vm_area_struct { struct mm_struct *vm_mm;

/* соответствующая структура mm_struct */ unsigned long vm_start;

/* начало диапазона адресов */ unsigned long vm_end;

/* конец диапазона адресов */ struct vm_area_struct *vm_next;

/* список областей VMA */ pgprot_t vm_page_prot;

/* права доступа */ unsigned long vm_flags;

/* флаги */ struct rb_node vm_rb;

/* узел текущей области VMA */ union { /* связь с address_space->i_mmap, или i_mmap_nonlinear */ struct { struct list_head list;

void *parent;

struct vm_area_struct *head;

} vm_set;

struct prio_tree_node prio_tree_node;

} shared;

struct list_head anon_vma_node;

/* анонимные области */ struct anon_vma *anon_vma;

/* объект анонимной VMA */ struct vm_operations_struct *vm_ops;

/* операции */ unsigned long vm_pgoff;

/* смещение в файле */ struct file *vm_file;

/* отображенный файл (если есть) */ void *vm_private_data;

/* приватные данные */ };

Как уже было рассказано, каждый дескриптор памяти связан с уникальным диа пазоном (интервалом) адресов в адресном пространстве процесса. Поле vm_start — это начальный (минимальный) адрес, а поле vm_end— конечный (максимальный) адрес данного интервала. Следовательно, значение (vm_end - vm_start) — это размер (длина) интервала адресов в байтах. Интервалы адресов разных областей па мяти одного адресного пространства не могут перекрываться.

Поле vm_mm указывает па структуру mm_struct, связанную с данной областью VMA. Заметим, что каждая область VMA уникальна для той структуры mm_struct, с которой эта область связана. Поэтому, даже если два разных процесса отобража ют один и тот же файл на свои адресные пространства, то для каждого процесса создается своя структура vm_area_struct, чтобы идентифицировать уникальные области памяти каждого процесса. Следовательно, два потока, которые совместно используют адресное пространство, также совместно используют и все структуры vm_area_struct в этом адресном пространстве.

Флаги областей VMA Поле флагов vm_flags содержит битовые флаги, которые определены в файле . Они указывают особенности поведения и содержат описательную информацию о страницах памяти, которые входят в данную область памяти. В от личие от прав доступа, которые связаны с определенной физической страницей па мяти, флаги областей VMA указывают особенности поведения, за которые отвечает ядро, а не аппаратное обеспечение. Более того, поле vm_flags содержит информа цию, которая относится к каждой странице в области памяти или,.что то же самое, ко всей области памяти в целом. В табл. 14.1 приведен список возможных значений флагов vm_flags.

Адресное пространство процесса Таблица 1 4. 1. Флаги областей VMA Флаг Влияние на область УМА и на ее страницы памяти VM_READ Из страниц памяти можно считывать информацию VM_WRITE В страницы памяти можно записывать информацию VM_EXEC Можно выполнять код, хранящийся в страницах памяти VM_SHARED Страницы памяти являются совместно используемыми VM_MAYREAD Можно устанавливать флаг VM_READ VM_MAYWRITE Можно устанавливать флаг V M _ W R I T E VM_MAYEXEC Можно устанавливать флаг VM_EXEC VM_MAYSHARE Можно устанавливать флаг VM_SHARED VM_GROWSDOWN Область памяти может расширяться "вниз" VM_GROWSUP Область памяти может расширяться "вверх" VM_SHM Область используется для разделяемой (совместно используемой) памяти VM_DENYWRITE В область отображается файл, в который нельзя выполнять запись VM_EXECUTABLE В область отображается выполняемый файл VM_LOCKED Страницы памяти в области являются заблокированными VM_IQ В область памяти отображается пространство ввода-вывода аппаратного устройства VM_SEQ_READ К страницам памяти, вероятнее всего, осуществляется последовательный доступ VM_RAND_READ К страницам памяти, вероятнее всего, осуществляется случайный доступ VM_DONTCOPY Область памяти не должна копироваться при вызове f o r k () VM_DONTEXPAND Область памяти не может быть увеличена с помощью вызова remap () VM_RESERVED Область памяти не должна откачиваться на диск VM_ACCOUNT Область памяти является объектом, по которому выполняется учет ресурсов VM_HUGETLB В области памяти используются гигантские ( h u g e t l b ) страницы памяти VM_NONLINEAR Область памяти содержит нелинейное отображение Рассмотрим подробнее назначение наиболее интересных и важных флагов. Флаги VM_READ, VM_WRITE и VM_EXEC указыпают обычные права на чтение-запись и выпол нение для страниц памяти, которые принадлежат данной области памяти. При необ ходимости их можно комбинировать для формирования соответствующих прав до ступа. Например, отображение выполняемого кода процесса может быть выполнено с указанием флагов VM_READ и VM_EXEC, но никак не с указанием флага VM_WRITE.

С другой стороны, сегмент данных из выполняемого файла может отображаться с указанием флагов VM_READ и VM_WRITE, указывать при этом флаг VM_EXEC не име ет смысла. Файл данных, который отображается только для чтения, должен отобра жаться с указанием только флага VM_READ.

Флаг VM_SHARED указывает на то, что область памяти содержит отображение, которое может совместно использоваться несколькими процессами. Если этот флаг установлен, то такое отображение называют совместно используемым (shared mapping), что интуитивно понятно. Если этот флаг не установлен, то такое отобра жение доступно только одному процессу и оно называется частным отображением, (private mapping).

318 Глава Флаг VM_IO указывает, что область памяти содержит отображение области вво да-вывода аппаратного устройства. Этот флаг обычно устанавливается драйверами устройств при выполнении вызова mmap () для отображения в память области вво да-вывода аппаратного устройства. Кроме всего прочего, этот флаг указывает, что область памяти не должна включаться в файл core процесса. Флаг VM_RESERVED ука зывает, что область памяти не должна откачиваться на диск. Этот флаг также укалы вается при отображении на память областей ввода-вывода аппаратных устройств.

Флаг VM_SEQ_READ является подсказкой ядру, что приложение выполняет после довательное (т.е. линейное и непрерывное) чтение из соответствующего отображе ния. При этом ядро может повысить производительность чтения за счет выполнения упреждающего чтения (read-ahead) из отображаемого файла. Флаг VM_RAND_READ указывает обратное, т.е. приложение выполняет операции чтения из случайно вы бранных мест отображения (т.е. не последовательно). При этом ядро может умень шить или совсем отключить выполнение упреждающего чтения из отображаемого файла. Эти флаги устанавливаются с помощью системного вызова madvice () путем указания соответственно флагов MADV_SEQUENTIAL и MADV_RANDOM для этого вызо ва. Упреждающее чтение — это последовательное чтение несколько большего коли чества данных, чем было запрошено, в надежде на то, что дополнительно считанные данные могут скоро понадобиться. Такой режим полезен для приложений, которые считывают данные последовательно. Однако если считывание данных выполняется случайным образом, то режим упреждающего чтения не эффективен.

Операции с областями VMA Поле vm_ops структуры vm_area_struct содержит указатель на таблицу опера ций, которые связаны с данной областью памяти и которые ядро может вызывать для манипуляций с областью VMA. Структура vm_area_struct служит общим объ ектом для представления всех типов областей виртуальной памяти, а в таблице опе раций описаны конкретные методы, которые могут быть применены к каждому кон кретному экземпляру объекта.

Таблица операций представлена с помощью структуры vm_operations_struct, которая определена в файле следующим образом.

struct vm_operations_struct { void (*open) (struct vm_area_struct *) ;

void (*close) (struct vm_area_struct * ) ;

struct page * (*nopage) (struct vm_area_struct *, unsigned long, int);

int (*populate) (struct vm_area struct *, unsigned long, unsigned long, pgprot_t, unsigned long, int);

};

Рассмотрим каждый метод в отдельности.

• void open (struct vm_area_struct *area) Эта функция вызывается, когда соответствующая область памяти добавляется в адресное пространство.

• void close(struct vm_area_struct *area) Эта функция вызывается, когда соответствующая область памяти удаляется из адресного пространства.

Адресное пространство процесса • struct page * nopage(struct vm_area_sruct *area, unsigned long address, int unused) Эта функция вызывается обработчиком прерывания из-за отсутствия страницы (page fault), когда производится доступ к странице, которая отсутствует в фи зической памяти.

• int populate {struct vm_area_struct *area, unsigned long address, unsigned long len, pgprot_t prot, unsigned long pgoff, int nonblock) Эта функция вызывается из системного вызова. remap_pages() для предвари тельного заполнения таблиц страниц области памяти (prefault) при создании нового отображения.

Списки и деревья областей памяти Как уже рассказывалось, к областям памяти осуществляется доступ с помощью двух структур данных дескриптора памяти: полей mmap и mm_rb. Эти две структу ры данных независимо друг от друга указывают на все области памяти, связанные с данным дескриптором памяти. Они содержат указатели на одни и те же структуры v m _ a r e a _ s t r u c t, просто эти указатели связаны друг с другом по-разному.

Первый контейнер, поле mmap, объединяет все объекты областей памяти в одно связный список. Структуры v m _ a r e a _ s t r u c t объединяются в список с помощью сво их полей vm_next. Области памяти отсортированы в порядке увеличения адресов (от наименьшего и до наибольшего). Первой области памяти соответствует струк тура vm a r e a _ s t r u c t, на которую указывает само поле mmap. Указатель на самую последнюю структуру равен значению NULL.

Второе поле, m m _ r b, объединяет все объекты областей памяти в красно-чер ное (red-black) дерево. На корень дерева указывает поле m m _ r b, а каждая структура vm_area s t r u c t присоединяется к дереву с помощью поля vm_rb.

Красно-черное дерево — это один из типов бинарного дерева. Каждый элемент красно-черного дерева называется узлом. Начальный узел является корнем дерева.

Большинство узлов имеет два дочерних узла: левый дочерний узел и правый дочер ний узел. Некоторые узлы имеют всего один дочерний узел, и, наконец, узлы, кото рые не имеют дочерних, называются листьями. Для любого узла все элементы дерева, которые находятся слева от данного узла, всегда меньше по своему значению, чем зна чение данного узла, а все элементы дерева, которые находятся справа от некоторого узла, всегда больше по значению, чем значение этого узла. Более того, каждому узлу присвоен цвет (красный или черный, отсюда и название этого типа деревьев) в соот ветствии со следующими двумя правилами: дочерние элементы красного узла являют ся черными и любой путь по дереву от узла к листьям должен содержать одинаковое количество черных узлов. Корень дерева всегда красный. Поиск, вставка и удаление элементов из такого дерева требуют количество операций порядка О (log (n) ).

Связанный список используется, когда необходимо пройти по всем узлам. Красно черное дерево используется, когда необходимо найти определенную область памяти адресного пространства. Таким образом, ядро использует избыточные структуры данных для обеспечения оптимальной производительности независимо от того, ка кие операции выполняются с областями памяти.

320 Глава Области памяти в реальной жизни Рассмотрим пример адресного пространства процесса и области памяти в этом адресном пространстве. Для этой цели можно воспользоваться полезной файловой системой / р г о с и утилитой pmар (1). В качестве примера рассмотрим следующую простую прикладную программу, которая работает в пространстве пользователя. Эта программа не делает абсолютно ничего, кроме того, что служит примером.

int main(int argc, char *argv[]) return 0;

} Рассмотрим список областей памяти из адресного пространства этого процесса.

Этих областей немного. Мы уже знаем, что среди них есть сегмент кода, сегмент данных сегмент bss. Если учесть, что эта программа динамически скомпонована с библиотекой функций языка С, то соответствующие области существуют также для модуля l i b c. s o и для модуля l d. s o. И наконец, среди областей памяти также есть стек процесса.

Результат вывода списка областей адресного пространства этого процесса из фай ла /proc//maps имеет следующий вид.

rml@phantasy:~$ cat /proc/1426/maps 00e80000-00faf000 r-xp 00000000 03:01 208530 /lib/tls/libc-2.3.2.so 00faf000-00fb2000 rw-p 0012fOOO 03:01 208530 /lib/tls/libc-2.3.2.so 00fb2000-00fb4000 rw-p 00000000 00:00 08048000-08049000 r-xp 00000000 03:03 439029 /home/rml/src/example 08049000-0804a000 rw-p 00000000 03:03 439029 /home/rml/src/example 40000000-40015000 r-xp 00000000 03:01 80276 /lib/ld-2.3.2.so 40015000-40016000 rw-p 00015000 03:01 80276 /lib/ld-2.3.2.so 4001e000-4001f000 rw-p 00000000 00:00 bfffe000-c0000000 rwxp fffffOOO 00:00 Информация об областях памяти выдается в следующем формате.

начало-конец права доступа смещение старший:младший номера устройства файловый индекс файл Утилита рmар ( 1 ) форматирует эту информацию в следующем, более удобочита емом виде.

rml@phantasy:~$ pmap example[1426] OOe8OOOO (1212 KB) r-xp (03:01 208530) /lib/tls/libc-2.3.2.so OOfafOOO (12 KB) rw-p (03:01 208530) /lib/tls/libc-2.3.2.so 00fb2000 (8 KB) rw-p (00:00 0) 08048000 (4 KB) r-xp (03:03 439029) /home/rml/src/example 08049000 (4 KB) rw-p (03:03 439029) /home/rml/src/example 40000000 (84 KB) r-xp (03:01 80276) /lib/ld-2.3.2.so Утилита pmap(l) печатает форматированный список областей памяти процесса. Результат ее вы вода несколько более удобочитаем, чем информация, получаемая из файловой системы /ргос, но это одна и та же информация. Данная утилита включена в новые версии пакета procps.

Адресное пространство процесса 40015000 (4KB) rw-p (03:01 80276) /lib/ld-2.3.2.so 4001e000 (4 KB) rw-p (00:00 0) bfffeOOO (8 KB) rwxp (00:00 0) mapped: 1340 KB writable/private: 40 KB shared: 0 KB Первые три строчки соответствуют сегменту кода, сегменту данных и сегменту bss модуля l i b c. s o (библиотека функций языка С). Следующие две строчки описы вают соответственно сегмент кода и сегмент данных выполняемого образа. Далее три строчки— описание сегментов кода, данных и bss модуля ld. so (динамический компоновщик). Последняя строчка описывает стек процесса.

Обратите внимание, что все сегменты кода имеют права на чтение и выполне ние, что и должно быть для выполняемых образов. С другой стороны, сегменты данных и bss, которые содержат глобальные переменные, помечаются как имеющие права на запись и чтение, а не на выполнение.

Все адресное пространство составляет порядка 1340 Кбайт, но только 40 Кбайт из них имеют право на запись и соответствуют частному отображению. Если область памяти является совместно используемой и не имеет прав на запись, то ядро хранит в памяти всего одну копию отображаемого файла. Это может показаться обычным для совместно используемых отображений;

однако, случай, когда при этом еще и от сутствуют права на запись, проявляется несколько неожиданно. Если учесть факт, что когда на отображение нет прав записи, то соответствующая информация никог да не может быть изменена (из отображения возможно только чтение), становится ясно, что можно совершенно безопасно загрузить выполняемый образ в память все го один раз. Поэтому динамически загружаемая библиотека функций языка С и за нимает в памяти всего 1212 Кбайт, а не 1212 Кбайт, умноженное на количество про цессов, которые эту библиотеку используют. В связи с этим, процесс, код и данные которого имеют объем порядка 1340 Кбайт, на самом деле занимает всего 40 Кбайт физической памяти. Экономия памяти из-за такого совместного использования по лучается существенной.

Обратите внимание на области памяти, которые не имеют отображаемого файла, находятся на устройстве с номерами 00:00 и номер файлового индекса для которых равен нулю. Это отображение страницы, заполненной нулями (zero page, пулевая страница). Если отобразить страницу, заполненную нулями, на область памяти, ко торая имеет права на запись, то побочным эффектом является инициализация всех переменных в нулевые значения. Это важно, поскольку в таком случае получается область памяти, заполненная нулями, которая нужна для сегмента bss.

Каждой области памяти, связанной с процессом, соответствует структура vm_ a r e a _ s t r u c t. Так как процесс не является потоком (thread), то для него существует отдельная структура min_struct, на которую есть ссылка из структуры t a s k _ s t r u c t.

Работа с областями памяти Ядру часто необходимо определять, соответствует ли та или иная область па мяти в адресном пространстве процесса заданному критерию, например, существу ет ли заданный адрес в области памяти. Эти операции являются основой работы функции mmap (), которая будет рассмотрена в следующем разделе, и выполнять их приходится часто. Несколько полезных для этого функций объявлены в файле .

322 Глава Функция find_vma() Функция f ind_vma () определена в файле mm/mmap.с.

Эта функция позволяет найти в заданном адресном пространстве ту первую об ласть памяти, для которой значение поля vm_end больше заданного адреса addr.

Другими словами, эта функция позволяет найти первую область памяти, которая со держит адрес addr или начинается с адреса, большего адреса addr. Если такой об ласти памяти не существует, то функция возвращает значение NULL.

В противном случае возвращается указатель на соответствующую структуру vm_area_struct. Обратите внимание, что найденная область VMA может начинать ся с адреса, большего адреса addr, и этот адрес не обязательно принадлежит, най денной области памяти. Результат выполнения функции find_vma () кэшируется в поле map_cache дескриптора памяти. Поскольку очень велика вероятность того, что после одной операции с областью памяти последуют еще операции с ней же, то процент попаданий в кэш получается достаточно большим (на практике получа ются значения порядка 30-40%). Проверка кэшированных результатов выполняется очень быстро. Если нужный адрес в кэше не найден, то выполняется поиск по всем областям памяти, связанным с заданным дескриптором. Этот поиск выполняется с помощью красно-черного дерева следующим образом.

struct vm_area_struct * find_vma(struct mm_struct *mm, unsigned long addr) { struct vm_area_struct *vma = NULL;

if (mm) { vma = mm->mmap_cache;

if (! (vma && vma->vm_end > addr && vma->vm start <= addr)) { struct rb node * rb_node;

rb node = mm->mm_rb.rb_node;

vma = NULL;

while (rb_node) { struct vm_area_struct * vma_tmp;

vma_tmp = rb_entry (rb_node, struct vm_area_struct, vm_rb);

if (vma_tmp->vm_end > addr) { vma = vma_tmp;

if (vma_tmp->vm_start <= addr) break;

rb_node = rb_node->rb_left;

} else rb_node = rb_node->rb_right;

} if (vma) mm->mmap_cache = vma;

} } return vma;

} Адресное пространство процесса Вначале выполняется проверка поля vma_cache на предмет того, содержит ли кэшированная область VMA необходимый адрес. Обратите внимание, что простая проверка того, является ли значение поля vm_end большим addr, не гарантирует что проверяемая область памяти является первой, в которой есть адреса, большие addr. Поэтому, для того чтобы кэш в этой ситуации оказался полезным, проверяе мый адрес должен принадлежать кэшированной области памяти. К счастью, это как раз и соответствует случаю выполнения последовательных операций с одной и той же областью VMA.

Если кэш не содержит нужную область VMA, то функция должна выполнять по иск по красно-черному дереву Это выполняется путем проверки узлов дерева. Если значение поля vma_end для области памяти текущего узла больше addr, то текущим становится левый дочерний узел, в противном случае — правый. Функция завершает свою работу, как только находится область памяти, которая содержит адрес a d d r.

Если такая область VMA не найдена, то функция продолжает поиск по дереву и воз вращает ту область памяти, которая начинается после адреса addr. Если вообще не найдена ни одна область памяти, то возвращается значение NULL.

Функция find_vma_prev() Функция find_vma_prev () работает аналогично функции f i n d vma (), но до полнительно она еще возвращает последнюю область VMA, которая заканчивается перед адресом addr. Эта функция также определена в файле mma/mmap.c и объявле на в файле следующим образом.

struct vm_area_struct * find vma_prev (struct mm_struct *mm, unsigned long addr, struct vm_area_struct **pprev) Параметр pprev после возвращения из функции содержит указатель на предыду щую область VMA.

Функция find_VMA_intersection() Функция f ind_vma_intersection () возвращает первую область памяти, кото рая перекрывается с указанным интервалом адресов. Эта функция определена в фай ле следующим образом. Это функция с подстановкой тела.

static inline struct vm_area_struct * find_vma_intersection( struct mm_struct *mm, unsigned long start_addr, unsigned long end addr) { struct vm_area_struct *vma;

vma = find_vma (mm, start_addr) ;

if (vma && end_addr <= vma->vm_start) vma = NULL;

return vma;

} Первый параметр — адресное пространство, в котором выполняется поиск, пара метр s t a r t _ a d d r — это первый адрес интервала адресов, а параметр end_addr — по следний адрес интервала.

Очевидно, что если функция find_vma() возвращает значение NULL, то это же значение будет возвращать и функция f i n d _ v m a _ i n t e r s e c t i o n ( ). Если функция 324 Глава find_vma () возвращает существующую область VMA, то функция find_vma_inter s e c t i o n () возвратит ту же область только тогда, когда эта область не начинается после конца данного диапазона адресов. Если область памяти, которая возвращается функцией find_vma (), начинается после последнего адреса из указанного диапазо на, то функция f ind_vma_intersection () возвращает значение NULL.

Функции mmap() и do_mmap():

создание интервала адресов Функция do_mmap() используется ядром для создания нового линейного интер вала адресов. Говорить, что эта функция создает новую область VMA, — технически не корректно, поскольку если создаваемый интервал адресов является смежным с существующим интервалом адресов и у этих интервалов одинаковые права доступа, то два интервала объединяются в один. Если это невозможно, то создается новая об ласть VMA. В любом случае функция do_mmap() — это функция, которая добавляет интервал адресов к адресному пространству процесса, независимо от того, создается ли при этом новая область VMA или расширяется существующая.

Функция do_ramap() объявлена в файле следующим образом.

unsigned long do_mmap(struct file *file, unsigned long addr, unsigned long len, unsigned long prot, unsigned long flag, unsigned long offset) Эта функция выполняет отображение на память содержимого файла f i l e на чиная с позиции в файле offset;

размер отображаемого участка равен len байт.

Значения параметров f i l e и offset могут быть нулевыми, в этом случае отображе ние не будет резервироваться (сохраняться) в файле. Такое отображение называется анонимным (anonymous mapping). Если указан файл и смещение, то отображение назы вается отображением, файла в память (file-backed mapping).

Параметр addr указывает (точнее, всего лишь подсказывает), откуда начинать по иск свободного интервала адресов.

Параметр p r o t указывает права доступа для страниц памяти в данной области.

Возможные значение флагов зависят от аппаратной платформы и описаны в файле. Хотя на практике для всех аппаратных платформ определены флаги, приведенные в табл. 14.2.

Параметр flags позволяет указать все остальные флаги области VMA. Эти флаги также определены в и приведены в табл. 14.3.

Таблица 14.2. Флаги защиты страниц памяти Флаг Влияние на страницы памяти в созданном интервале адресов PROT_READ Соответствует флагу VM_READ PROT_WRITE Соответствует флагу VM_WRITE PROT_EXEC Соответствует флагу VM_EXEC PROT_NONE К страницам памяти нет доступа Адресное пространство процесса Таблица 14.3. Флаги защиты страниц памяти Флаг Влияние на созданный интервал адресов MAP_SHARED Отображение может быть совместно используемым MAP_PRIVATE Отображение не может быть совместно используемым MAP_FIXED Создаваемый интервал адресов должен начинаться с указанного адреса addr MAP_ANONYMOUS Отображение является анонимным, а не отображением файла MAP_GROWSDOWN Соответствует флагу VM_GROWSDOWN MAP_DENYWRIIE Соответствует флагу VM DENYWRITE MAP_EXECUTABLE Соответствует флагу VM_EXECUTABLE MAP_LOCKED Соответствует флагу VM_LOCKED MAP_NORESERVE Нет необходимости резервировать память для отображения MAP_POPULATE Предварительно заполнить (prefault) таблицы страниц MAP_NONBLOCK Не блокировать при операциях ввода-вывода Если какой-либо из параметров имеет недопустимое значение, то функция do_mmap() возвращает отрицательное число. В протипном случае создастся не обходимый интервал адресов. Если это возможно, то этот интервал объединяется с соседней областью памяти. Если это невозможно, то создается новая структура v m _ a r e a _ s t r u c t, которая выделяется в слябовом кэше vm_area_cachep. После этого новая область памяти добавляется в связанный список и красно-черное дерево областей памяти адресного пространства с помощью функции vma_link(). Затем обновляется значение поля total_vm в дескрипторе памяти. В конце концов, функ ция возвращает начальный адрес вновь созданного интервала адресов.

Системный вызов mmap() Возможности функции do_mmap() экспортируются в пространство пользователя с помощью системного вызова mmap(), который определен следующим образом.

void * mmар2 (void *start, size_t length, int prot, int flags, int fd, off_t pgoff) Этот системный вызов имеет имя mmap2(),т.е. второй вариант функции mmap().

Первоначальный вариант mmap() требовал в качестве последнего параметра смеще ние в байтах, а текущий вариант, mmap2(), — смещение в единицах размера страни цы памяти. Это позволяет отображать файлы большего размера с большим значе нием смещения. Первоначальный вариант функции mmap(), который соответствует стандарту POSTX, доступен через библиотеку функций языка С, как функция mmap(), но в ядре уже не реализован. Новый вариант библиотечной функции называется mmap2(). Обе эти библиотечные функции используют системный вызов mmap2 (), При этом библиотечная функция mmap() переводит значение смещения из байтов в количество страниц памяти.

Глава Функции munmap() и do_munmap():

удаление интервала адресов Функция do_manmap() удаляет интервал адресов из указанного адресного про странства процесса. Эта функция объявлена в файле следующим об разом.

int do_munmap(struct mm_struct *mm, unsigned long start, size t_len) Первый параметр указывает адресное пространство, из которого удаляется ин тервал адресов, начинающийся с адреса s t a r t и имеющий длину l e n байт. В случае успеха возвращается нуль, а в случае ошибки — отрицательное значение.

Системный вызов munmap() Системный вызов munmap () экспортируется в адресное пространство пользова теля, чтобы иметь возможность удалять интервалы адресов из адресного простран ства. Эта функция является комплиментарной к системному вызову mmap () и имеет следующий прототип.

int munmap(void *start, size_t length) Данный системный вызов реализован в виде очень простой интерфейсной обо лочки (wrapper) функции do_munmap ( ).

asmlinkage long sys_munmap(unsigned long addr, size_t len) { int ret;

struct mm_struct *mm;

mm = current->mm;

down_write(&mm->mmap_sem);

ret = do_munmap(mm, addr, len);

p_write(&mm->mmap_sem);

return ret;

} Таблицы страниц Хотя пользовательские программы и работают с виртуальной памятью, которая отображается на физические адреса, процессоры работают непосредственно с эти ми физическими адресами. Следовательно, когда приложение обращается к адресу виртуальной памяти, этот адрес должен быть конвертирован в физический адрес, чтобы процессор смог выполнить запрос. Соответствующий поиск выполняется с помощью таблиц страниц. Таблицы страниц работают путем разбиения виртуально го адреса на части. Каждая часть используется в качестве индекса (номера) записи в таблице. Таблица содержит или указатель на другую таблицу, или указатель на соот ветствующую страницу физической памяти.

Адресное пространство процесса В операционной системе Linux таблицы страниц состоят из трех уровней3.

Несколько уровней позволяют эффективно поддерживать неравномерно заполнен ные адресные пространства даже для 64-разрядных машин. Если бы таблицы стра ниц были выполнены в виде одного статического массива, то их размер, даже для 32-разрядных аппаратных платформ, был бы чрезвычайно большим. В операцион ной системе Linux трехуровневые таблицы страниц используются даже для тех ап паратных платформ, которые аппаратно не поддерживают трехуровневых таблиц (например, для некоторых аппаратных платформ поддерживается только два уровня или аппаратно реализовано хеширование). Три уровня соответствуют своего рода "наибольшему общему знаменателю". Для аппаратных платформ с менее сложной ре ализацией работа с таблицами страниц в ядре при необходимости может быть упро щена с помощью оптимизаций компилятора.

Таблица страниц самого верхнего уровня называется глобальным каталогом стра ниц (page global directory, PGD). Таблица PGD представляет собой массив элементов типа pgd_t. Для большинства аппаратных платформ тип pgd_t соответствует типу unsigned long. Записи в таблице PGD содержат указатели на каталоги страниц бо лее низкого уровня, PMD.

Каталоги страниц второго уровня еще называются каталогами страниц;

среднего уровня (page middle directory, PMD). Каждый каталог PMD— это массив элементов типа prad_t. Записи таблиц PMD укалывают на таблицы РТЕ (page table entry, запись таблицы страниц).

Таблицы страниц последнего уровня называются просто таблицами страниц и со держат элементы типа pte_t. Записи таблиц страниц указывают на страницы памяти.

Для большинства аппаратных платформ поиск в таблицах страниц выполняется аппаратным обеспечением (по крайней мере частично). При нормальной работе аппаратное обеспечение берет на себя большую часть ответственности по исполь зованию таблиц страниц. Однако для этого ядро должно все настроить так, чтобы аппаратное обеспечение могло нормально работать. На рис. 14.1 показана диаграмма того, как происходит перевод виртуального адреса в физический с помощью табли цы страниц.

PGD PMD РТЕ Страница физической Структура памяти mm_struct Структура page Рис. 14.1. Таблицы страниц Начиная с ядра версии 2.6.11 таблицы страниц в ОС Linux для 64-разрядных аппаратных платформ стали 4-уровневыми, что позволяет в полном объеме использовать все виртуальное адресное про странство. Для 32-разрядных аппаратных платформ осталось 3 уровня, как и раньше. — Примеч. ред.

328 Глава Каждый процесс имеет свои таблицы страниц (разумеется, потоки эти таблицы используют совместно). Поле pgd дескриптора памяти указывает на глобальный ка талог страниц. Манипуляции с таблицами и прохождение по ним требуют захвата блокировки p a g e _ t a b l e _ l o c k, которая также находится в соответствующем де скрипторе памяти.

Структуры данных, связанные с таблицами страниц, сильно зависят от аппарат ной платформы и определены в файле.

Поскольку практически каждое обращение к страницам виртуальной памяти тре бует определения соответствующего адреса физической памяти, производительность операций с таблицами страниц является очень критичной. Поиск всех этих адресов в памяти должен всегда выполняться очень быстро. Чтобы посодействовать этому, большинство процессоров имеют буфер быстрого преобразования адреса (translation loo kaside buffer, или TLB), который работает, как аппаратный кэш отображения вирту альных адресов на физические. При обращении к виртуальному адресу процессор вначале проверяет, не кэшировано ли это отображение в TLB. Если обращение в кэш было удачным, то сразу же возвращается физический адрес. В противном случае поиск физического адреса выполняется с помощью таблиц страниц.

Несмотря на это, управление таблицами страниц все же остается критичной и развивающейся частью ядра. Изменения в ядре 2.6 включают выделение частей таблиц страниц не в области верхней памяти. В будущем, вероятно, появится воз можность совместного использования таблиц страниц с копированием при записи.

В такой схеме таблицы страниц будут совместно использоваться родительским и по рожденным процессами даже после выполнения вызова fork(). Если же родитель ский или порожденный процесс изменит некоторую запись таблицы страниц, то будет создана копия этой записи, и эти процессы больше не будут совместно исполь зовать данную запись. Совместное использование таблиц страниц позволит устра нить затраты, связанные с копированием таблиц страниц при вызове fork().

Заключение В этой главе была рассмотрена абстракция виртуальной памяти, которая предо ставляется каждому процессу. Было рассказано, как ядро представляет адресное пространство процесса (с помощью структуры s t r u c t mm_struct) и каким обра зом ядро представляет области памяти внутри этого адресного пространства ( s t r uct vrn_area_struct). Также рассказывалось о том, как ядро создает (с помощью функции mmap()) и удаляет (с помощью функции munmap()) области памяти. Б кон це были рассмотрены таблицы страниц. Так как операционная система Linux — это система с виртуальной памятью, то все эти понятия очень важны для понимания работы системы и используемой модели процессов.

В следующей главе рассматривается страничный кэш - общий кэш данных, кото рый используется для выполнения страничных операций ввода-вывода и обратной записи страниц. Оставайтесь с нами!

Адресное пространство процесса Страничный кэш и обратная запись страниц В ядре операционной системы Linux реализован один главный дисковый кэш, который называется страничным (page cache). Назначение этого кэша— мини мизировать количество дисковых операций ввода-вывода путем хранения в памяти тех данных, для обращения к которым необходимо выполнять дисковые операции, Эта глава посвящена рассмотрению страничного кэша.

Кэширование дисковых данных важно по двум причинам. Во-первых, доступ к диску выполняется значительно медленнее, чем доступ к памяти. Доступ к данным в памяти выполняется значительно быстрее, чем к данным на диске. Во-вторых, если к некоторым данным осуществлялся доступ, то с достаточно большой вероятностью к этим же данным в ближайшем будущем потребуется обратиться снова. Принцип, согласно которому операции обращения к некоторым данным имеют тенденцию группироваться друг с другом во времени, называется сосредоточенностью во време ни (temporal locality). Сосредоточенность во времени гарантирует, что если данные кэшируются при первом доступе к ним, то существует большая вероятность удачного обращения в кэш к этим данным в ближайшем будущем.

Страничный кэш состоит из физических страниц, которые находятся в оператив ной памяти. Каждая страница памяти в кэше соответствует нескольким дисковым блокам. Когда ядро начинает некоторую операцию страничного ввода-вывода (дис ковые, обычно файловые, операции ввода-вывода, которые выполняются порциями, равными размеру страницы памяти), то оно вначале проверяет, нет ли соответству ющих данных в страничном кэше. Если эти данные есть в кэше, то ядро может не обращаться к диску и использовать данные прямо из страничного кэша.

Отдельные дисковые блоки также могут быть привязаны к страничному кэшу с помощью буферов блочного ввода-вывода. Вспомните из материала главы 13, "Уровень блочного ввода-вывода", что буфер — это представление в памяти одного физического дискового блока. Буферы играют роль дескрипторов, которые отобра жают страницы памяти на дисковые блоки. Поэтому страничный кэш также позво ляет сократить количество обращений к диску при выполнении операций блочного ввода-вывода как за счет кэширования, так и за счет буферизации операций блочно го ввода-вывода для выполнения в будущем. Такой тип кэширования часто называют "буферным кэшем", хотя на самом деле это не отдельный кэш, а часть страничного кэша.

Рассмотрим те типы операций и данных, которые связаны со страничным кэшем.

Страничный кэш в основном пополняется при выполнении страничных операций ввода-вывода, таких как read() и w r i t e ( ). Страничные операции ввода-вывода вы полняются с целыми страницами памяти, в которых хранятся данные, что соответ ствует операциям с более, чем одним дисковым блоком. В страничном кэше данные файлов хранятся порциями. Размер одной порции равен одной странице памяти.

Операции блочного ввода-вывода работают в каждый отдельный момент времени с одним дисковым блоком. Часто встречающаяся операция блочного ввода-вывода — это чтение и запись файловых индексов. Ядро предоставляет функцию bread(), ко торая выполняет низкоуровневое чтение одного блока с диска. С помощью буферов дисковые блоки отображаются на связанные с ними страницы памяти и благодаря этому сохраняются в страничном кэше.

Например, при первом открытии в текстовом редакторе дискового файла с ис ходным кодом, данные считываются с диска и записываются в память. При редакти ровании файла считывается вес больше данных в страницы памяти. Когда этот файл позже начинают компилировать, то ядро может считывать соответствующие страни цы памяти из дискового кэша. Нет необходимости снова считывать данные с диска.

Поскольку пользователи склонны к тому, чтобы периодически работать с одними и теми же файлами, страничный кэш уменьшает необходимость выполнения большого количества дисковых операций.

Страничный кэш Как следует из названия, страничный кэш (page cache) — это кэш страниц;

памяти.

Соответствующие страницы памяти получаются в результате чтения и записи обыч ных файлов на файловых системах, специальных файлов блочных устройств и фай лов, отображаемых в память. Таким образом, в страничном кэше содержатся стра ницы памяти, полностью заполненные данными из файлов, к которым только что производился доступ. Перед выполнением операции страничного ввода-вывода, как, например, r e a d ( ) 1, ядро проверяет, есть ли те данные, которые нужно считать, в страничном кэше. Если данные находятся в кэше, то ядро может быстро возвратить требуемую страницу памяти.

Объект address_space Физическая страница памяти может содержать данные из нескольких несмежных физических дисковых блоков2.

Как было показано в главе 12," Виртуальная файловая система", операции страничного ввода-вы вода непосредственно выполняются не системными вызовами read() и write(), а специфичными для файловых систем методами и file~>f_op->wriie().

file->f_op->read() Например, размер страницы физической памяти для аппаратной платформы х86 равен 4 Кбайт, в то время как размер дискового блока для большинства устройств и файловых систем равен 512 байт. Следовательно, в одной странице памяти может храниться 8 блоков. Блоки не обязатель но должны быть смежными, так как один файл может быть физически "разбросанным" по диску.

332 Глава Проверка наличия определенных данных в страничном кэше может быть затруд нена, если смежные блоки принадлежат совершенно разным страницам памяти.

Невозможно проиндексировать данные в страничном кэше, используя только имя устройства и номер блока, что было бы наиболее простым решением.

Более того, страничный кэш ядра Linux является хранилищем данных доста точно общего характера в отношении того, какие страницы памяти в нем могут кэшироваться. Первоначально страничный кэш был предложен в операционной системе System V (SVR 4) для кэширования только данных из файловых систем.

Следовательно, для управления страничным кэшем операционной системы SVR использовался эквивалент файлового объекта, который назывался s t r u c t vnode.

Кэш операционной системы Linux разрабатывался с целью кэширования любых объ ектов, основанных на страницах памяти, что включает множество типов файлов и отображений в память.

Для получения необходимой общности в страничном кэше операционной систе мы Linux используется структура address_space (адресное пространство), которая позволяет идентифицировать страницы памяти, находящиеся в кэше. Эта структура определена в файле следующим образом.

struct address_space { /* файловый индекс, которому struct inode *host;

принадлежит объект */ /* базисное дерево всех страниц */ struct radix_tree_root page_tree;

/* блокировка для защиты spinlock_ t tree_lock;

поля page_tree */ /* количество областей памяти unsigned int i_mmap_wrltable;

с флагом VM_SHARED */ /* список всех отображений */ struct prio_tree_root i_mmap;

/* список областей памяти с флагом VM_NONLINEAR */ struct list_head i_mmap_nonlinear;

/* Блокировка поля i_mmap */ spinlock_t i_mmap_lock;

/* счетчик запросов truncate */ atomic_t truncate_counl;

/* общее количество страниц */ unsigned long nrpages;

writeback_index;

/* смещения начала обратной записи */ pgoff_t struct address_space_operations *a_ops;

/* таблица операций */ /* маска gfp_mask и флаги ошибок */ unsigned long flags;

struct backing_dev_info *backing_dev_info;

/* информация упреждающего чтения */ /* блокировка для частных отображений */ spinlock_t private_lock;

/* список частных отображений */ struct list_head private_list;

/* соответствующие буферы */ struct address_spacs *assoc_mapping;

};

Поле i_mmap — это дерепо поиска по приоритетам для всех совместно использу емых и частных отображений. Дерево поиска по приоритетам— это хитрая смесь базисных и частично упорядоченных бинарных деревьев.

Всего в адресном пространстве nrpages страниц памяти.

Реализация ядра основана на базисном дереве поиска по приоритетам, предложенном в работе Edward M. McCreight, опубликованной в журнале SIAM Journal of Computing, May 1985, vol. 14.

№ 2, P. 257-276.

Страничный кэш и обратная запись страниц Объект a d d r e s s s p a c e связан с некоторым другим объектом ядра, обычно с файловым индексом. Если это так, то поле host указывает на соответствующий фай ловый индекс. Если значение поля host равно NULL, то соответствующий объект не является файловым индексом;

например, объект address_space может быть связан с процессом подкачки страниц (swapper).

Поле a_ops указывает на таблицу операгций с адресным пространством так же, как и в случае объектов подсистемы VFS. Таблица операций представлена с помо щью структуры s t r u c t address_space_operations, которая определена в файле следующим образом.

struct address_space_operations { int (*writepage) (struct page *, struct writeback_control * ) ;

int (*readpage) (struct file *, struct page * ) ;

int (*sync_page) (struct page * ) ;

int (*writepages) (struct address_space *, struct writeback_control * ) ;

int (*set_page_dirty) (struct page * ) ;

int (*readpages) (struct file *, struct address_space *, struct list_head *, unsigned);

int (*prepare_write) (struct file *, struct page *, unsigned, unsigned);

int (*commit_write) (struct file *, struct page *, unsigned, unsigned);

sector_t (*bmap)(struct address_space *, sector_t);

int (*invalidatepage) (struct page *, unsigned long);

int (*releasepage) (struct page *, int);

int (*direct_IO) (int, struct kiocb *, const struct iovec *, loff_t, unsigned long);

};

Методы r e a d _ p a g e и w r i t e _ p a g e являются наиболее важными. Рассмотрим шаги, которые выполняются при страничной операции чтения.

Методу чтения в качестве параметров передается пара значений: объект a d d r e s s _ s p a c e и смещение. Эти значения используются следующим образом для поиска не обходимых данных в страничном кэше.

page = find_get_page(mapping, index);

где параметр mapping — это заданное адресное пространство, a index - заданная по зиция в файле.

Если в кэше нет необходимой страницы памяти, то новая страница памяти вы деляется и добавляется в кэш следующим образом.

struct page *cached_page;

int error;

cached_page = page_cache_alloc_cold (mapping);

if (!cached_page) /* ошибка выделения памяти */ error = add_to_page_cache_lru (cached_page, mapping, index, GFP_KERNEL);

if (error) /* ошибка добавления страницы памяти в страничный кэш */ 334 Глава Наконец, необходимые данные могут быть считаны с диска, добавлены в стра ничный кэш и возвращены пользователю. Это делается следующим образом.

error = mapping->a_ops->readpage(file, page);

Операции записи несколько отличаются. Для отображаемых в память файлов при изменении страницы памяти система управления виртуальной памятью просто вызывает следующую функцию.

SetPageDirty(page);

Ядро выполняет запись этой страницы памяти позже с помощью вызова метода w r i t e p a g e ( ). Операции записи для файлов, открытых обычным образом (без ото бражения в память), выполняются более сложным путем. В основном, общая опе рация записи, которая реализована в файле m m / f i l e m a p. с, включает следующие шаги.

page = grab_cache_page(mapping, index, &cached_page, &lru_pvec);

status a_ops->prepare_write(file, page, offset, offset+bytes);

page_fault = filemap_copy_from_user(page, offset, buf, bytes);

status = a_ops->commit_write(file, page, offset, offset+bytes};

Выполняется поиск необходимой страницы памяти в кэше. Если такая страница в кэше не найдена, то создается соответствующий элемент кэша. Затем вызывает ся метод p r e p a r e _ w r i t e (), чтобы подготовить запрос на запись. После этого дан ные копируются из пространства пользователя в буфер памяти в пространстве ядра.

И наконец данные записываются на диск с помощью функции c o m n i t _ w r i t e ( ).

Поскольку все описанные шаги выполняются при всех операциях страничного ввода-вывода, то все операции страничного ввода-вывода выполняются только че рез страничный каш. Ядро пытается выполнить все запросы чтения из страничного кэша. Если этого сделать не удается, то страница считывается с диска и добавляется в страничный кэш. Для операций записи страничный кэш выполняет роль "старто вой площадки". Следовательно, все записанные страницы также добавляются в стра ничный кэш.

Базисное дерево Так как ядро должно проверять наличие страниц в страничном кэше перед тем, как запускать любую операцию страничного ввода-вывода, то этот поиск должен вы полняться быстро. В противном случае затраты на поиск могут свести на нет все выгоды кэширования (по крайней мере, в случае незначительного количества удач ных обращений в кэш, эти затраты времени будут сводить на нет все преимущества считывания данных из памяти по сравнению со считыванием напрямую с диска).

Как было показано в предыдущем разделе, поиск в страничном кэше выполняется на основании информации объекта a d d r e s s _ s p a c e и значения смещения. Каждый объект a d d r e s s _ s p a c e имеет свое уникальное базисное дерево (radix tree), кото рое хранится в поле p a g e t r e e. Базисное дерево - это один из типов бинарных де ревьев. Базисное дерево позволяет выполнять очень быстрый поиск необходимой страницы только на основании значения смещения в файле. Функции поиска в стра ничном кэше, такие как f i n d _ g e t _ p a g e () и r a d i x _ t r e e _ l o o k u p (), выполняют по иск с использованием заданного дерева и заданного объекта.

Страничный кэш и обратная запись страниц Основной код для работы с базисными деревьями находится в файле l i b / r a d i x - t r e e. с. Для использования базисных деревьев необходимо подключить за головочный файл .

Старая хеш-таблица страниц Для ядер до серии 2.6 поиск в страничном кэше не выполнялся с помощью базис ных деревьев. Вместо этого поддерживалась глобальная хеш-таблица всех страниц памяти в системе. Специальная хеш-функция возвращала двухсвязный список значе ний, связанных с одним значением ключа. Если нужная страница находится в кэше, то один из элементов этого списка соответствует этой нужной странице. Если стра ница в кэше отсутствует, то хеш-функция возвращает значение NULL.

Использование глобальной хеш-таблицы приводило к четырем основным проб лемам.

• Хеш-таблица защищалась одной глобальной блокировкой. Количество кон фликтов при захвате этой блокировки было достаточно большим даже для не очень больших машин. В результате страдала производительность.

• Размер хеш-таблицы был большим, потому что в ней содержалась информация обо всех страницах памяти в страничном кэше, в то время как важными явля ются лишь страницы, связанные с одним конкретным файлом.

• Производительность в случае неудачного обращения в кэш (когда искомая страница памяти не находится в кэше) падала из-за необходимости просматри вать все элементы списка, связанного с заданным ключом.

• Хеш-таблица требовала больше памяти, чем другие возможные решения.

Применение в ядрах серии 2.6 страничного кэша на основании базисных дере вьев позволило решить эти проблемы.

Буферный кэш В операционной системе Linux больше нет отдельного буферного кэша. В ядрах серии 2.2 существовало два отдельных кэша: страничный и буферный. В первом кэ шировалисы страницы памяти, а в другом — буферы. Эти два кэша не были объедине ны между собой. Дисковый блок мог находиться в обоих кэшах одновременно. Это требовало больших усилий по синхронизации двух кэшированных копий, не говоря уже о напрасной трате памяти.

Так было в ядрах серии 2.2 и более ранних, но начиная с ядер Linux серии 2. оба кэша объединили вместе. Сегодня существует только один дисковый кэш — стра ничный кэш.

Ядру все еще необходимо использовать буферы для того, чтобы представлять дис ковые блоки в памяти. К счастью, буферы описывают отображение блоков на стра ницы памяти, которые в свою очередь находятся в страничном кэше.

336 Глава Демон pdflush Измененные (dirty, "грязные") страницы памяти когда-нибудь должны быть запи саны на диск. Обратная запись страниц памяти выполняется в следующих двух слу чаях.

• Когда объем свободной памяти становится меньше определенного порога, ядро должно записать измененные данные обратно на диск, чтобы освободить память.

• Когда несохраненные данные хранятся в памяти достаточно долго, то ядро должно их записать на диск, чтобы гарантировать, что эти данные не будут на ходиться в Несохраненном состоянии неопределенное время.

Эти два типа записи имеют разные цели. В более старых ядрах они выполнялись двумя разными потоками пространства ядра (см. следующий раздел). Однако в ядре 2.6 эту работу выполняет группа (gang4) потоков ядра pdflush, которые называются демонами фоновой обратной записи (или просто потоками pdflush). Ходят слухи, что название pdflush — это сокращение от "dirty page flush" ("очистка грязных стра ниц"). Не обращайте внимание на это сомнительное название, давайте лучше более детально рассмотрим, для чего нужны эти процессы.

Во-первых, потоки pdflush служат для записи измененных страниц на диск, ког да объем свободной памяти в системе уменьшается до определенного уровня. Цель такой фоновой записи— освобождение памяти, которую занимают незаписанные страницы, в случае недостатка физических страниц памяти. Уровень, когда начи нается обратная запись, может быть сконфигурирован с помощью параметра d i r ty_background_ratio утилиты s y s c t l. Когда объем свободной памяти становится меньше этого порога, ядро вызывает функцию wakeup_bdf l u s h ()5 для перевода в состояние выполнения потока pdflush, который пыполняет функцию обратной за писи измененных страниц памяти background_writeout (). Эта функция получает один параметр, равный количеству страниц, которые функция должна попытаться записать на диск.

Функция продолжает запись до тех пор, пока не выполнятся два следующих условия.

• Указанное минимальное количество страниц записано на диск.

• Объем свободной памяти превышает соответствующее значение параметра dirty_background_ratio.

Выполнение этих условий гарантирует, что демон pdf l u s h выполнил свою рабо ту по предотвращению нехватки памяти. Если эти условия не выполняются, то об ратная запись может остановиться только тогда, когда демон p d f l u s h запишет на диск все несохраненные страницы и для него больше не будет работы.

Во-вторых, назначение демона pdflush — периодически переходить в состояние выполнения (независимо от состояния нехватки памяти) и записывать на диск очень Слово "gang" не является жаргонным. Этот термин часто используется в компьютерных науках, чтобы указать группу чего-либо, что может выполняться параллельно.

Да, название функции не совсем верное. Должно было бы быть wakeup_pdflush (). В следующем разделе рассказано, откуда произошло это название.

Страничный кэш и обратная запись страниц давно измененные страницы памяти. Это гарантирует, что измененные страницы не будут находиться в памяти неопределенное время. При сбоях системы будут потеря ны те страницы памяти, которые не были сохранены на диске, так как содержимое памяти после перегрузки не сохраняется. Следовательно, периодическая синхрони зация страничного кэша с данными на диске является важным делом. При загрузке системы инициализируется таймер, периодически возвращающий к выполнению по ток pdflush, который выполняет функцию wb_kupdate ( ). Эта функция выполняет обратную запись данных, которые были изменены более чем d i r t y _ e x p i r e _ c e n t i seсs сотых секунды тому назад. После этого таймер снова инициализируется, чтобы сработать через d i r t y _ e x p i r e _ c e n t i s e c s сотых секунды. Таким образом потоки p d f l u s h периодически возвращаются к выполнению и записывают на диск все из мененные страницы, данные в которых старше, чем указанный лимит.

Системный администратор может установить эти значения с помощью каталога /proc/sys/vrn и утилиты s y s c t l. Втабл. 15.1 приведен список всех соответствую щих переменных.

Таблица 15.1. Параметры для настройки демона p d f l u s h Переменная Описание dirty_background_ratio Объем свободной оперативной памяти, при котором демон p d f l u s h начинает обратную запись незаписанных данных dirty_expire_centisecs Время, в сотых долях секунды, в течение которого неза писанные данные могут оставаться в памяти, перед тем как демон p d f l u s h не запишет их на диск при следующем периоде обратной записи dirty_ratio Процент от общей оперативной памяти, соответствующий страницам памяти одного процесса, при котором начинает ся обратная запись незаписанных данных • • i dirty_writeback_centisecs Насколько часто, в сотых долях секунды, процесс b d f l u s h возвращается к выполнению для обратной записи данных laptop_mode Переменная булевого типа, которая включает или выключает режим ноутбука (см. следующий раздел) Код потока p d f l u s h находится в файлах m m / p a g e - w r i t e b a c k. c и f s / fs-writeback.с.

Режим ноутбука Режим ноутбука — это специальная политика обратной записи страниц с целью оптимизации использования батареи и продления срока ее работы. Это делается путем минимизации активности жестких дисков, чтобы они оставались в останов ленном состоянии по возможности долго. Конфигурировать этот режим можно с по мощью файла /proc/sys/vm/laptop_mode. По умолчанию в этом файле записано значение 0 и режим ноутбука выключен. Запись значения 1 в этот файл позволяет включить режим ноутбука.

В режиме ноутбука существует всего одно изменение в выполнении обратной записи страниц. В дополнение к обратной записи измененных страниц;

памяти, когда они становятся достаточно старыми, демон p d f l u s h также выполняет и все остальные операции дискового ввода-вывода, записывая все дисковые буферы на 338 Глава диск. Таким образом демон p d f l u s h пользуется тем преимуществом, что диск уже запущен, а также он гарантирует, что в ближайшем будущем диск снова запущен не будет.

Такое поведение имеет смысл, когда параметры d i r t y _ e x p i r e _ c e n t i s e c s и d i r t y _ w r i t e b a c k _ c e n t i s e c s установлены в большие значения, скажем 10 минут.

При таких задержках обратной записи диск запускается не часто, а когда он все-таки запускается, то работа в режиме ноутбука гарантирует, что этот момент будет ис пользован с максимальной эффективностью.

Во многих поставках ОС Linux режим ноутбука автоматически включается и вы ключается, при этом также могут изменяться и другие параметры демона p b f l u s h, когда заряд батареи уменьшается. Такое поведение позволяет получать преимуще ства от режима ноутбука при работе от батареи и автоматически возвращаться к нормальному поведению, когда машина включается в электрическую сеть.

Демоны bdflush и kupdated В ядрах серий до 2.6 работа потоков p d f l u s h выполнялась двумя другими пото ками ядра b d f l u s h и kupdated.

Поток пространства ядра b d f l u s h выполнял фоновую обратную запись изменен ных страниц, когда количество доступной памяти становилось достаточно малым.

Также был определен ряд пороговых значений, аналогично тому как это делается для демона p d f l u s h. Демон b d f l u s h возвращался к выполнению с помощью функ ции wakeup_bdflush (), когда количество свободной памяти становилось меньше этих пороговых значений.

Между демонами b d f l u s h и p d f l u s h существует два главных отличия. Первое состоит в том, что демон b d f l u s h был всего один, а количество потоков p d f l u s h может меняться динамически. Об этом более подробно будет рассказано в следую щем разделе. Второе отличие состоит в том, что демон b d f l u s h работал с буферами, он записывал на диск измененные буферы. Демон p d f l u s h работает со страница ми, он записывает на диск целые измененные страницы памяти. Конечно, страницы памяти могут соответствовать буферам, но единицей ввода-вывода является целая страница памяти, а не один буфер. Это дает преимущество, поскольку работать со страницами памяти проще, чем с буферами, так как страница памяти — более общий и более часто используемый объект.

Так как демон b d f l u s h выполнял обратную запись, только когда количество сво бодной памяти очень сильно уменьшалось или количество буферов было очень боль шим, то был введен поток ядра kupdated, который периодически выполнял обрат ную запись измененных страниц памяти. Он использовался для целей, аналогичных функции wb_kupdate () демона p d f l u s h.

Потоки b d f l u s h и kupdated и их функциональность сейчас заменены потоками pdflush.

Предотвращение перегруженности:

для чего нужны несколько потоков Один из главных недостатков решения на основе демона b d f l u s h состоит в том, что демон b d f l u s h имел всего один поток выполнения. Это приводило к возмож ности зависания демона при большом количестве операций обратной записи, когда Страничный кэш и обратная запись страниц один поток демона b d f l u s h блокировался на очереди запросов ввода-вывода пере груженного устройства, в то время как очереди запросов других устройств могли быть в этот момент сравнительно свободными. Если система имеет несколько дис ков и соответствующую процессорную мощность, то ядро должно иметь возмож ность загрузить работой все диски. К сожалению, даже при большом количестве данных, для которых необходима обратная запись, демон b d f l u s h может оказаться загруженным работой с одной очередью и не сможет поддерживать все диски в на груженном состоянии. Это происходит потому, что пропускная способность диском конечна и, к несчастью, очень низкая. Если только один поток выполняет обратную запись страниц, то он может проводить много времени в ожидании одного диска, так как пропускная способность диска ограничена. Для облегчения этой ситуации ядру необходима многопоточная обратная запись. В таком случае ни одна очередь запросов не может стать узким местом.

В ядрах серии 2.6 эта проблема решается путем введения нескольких потоков p d f l u s h. Каждый поток самостоятельно выполняет обратную запись страниц памя ти на диск, что позволяет различным потокам p d f l u s h работать с разными очередя ми запросов устройств.

Количество потоков изменяется в процессе работы системы в соответствии с простым алгоритмом. Если все существующие потоки p d f l u s h оказываются заняты ми в течение одной секунды, то создается новый поток p d f l u s h. Общее количество потоков не может превышать значения константы MAX_PDFLUSH_THREADS, которая по умолчанию равна 8. И наоборот, если поток p d f l u s h находился в состоянии ожи дания больше одной секунды, то он уничтожается. Минимальное количество потоков равно, по крайней мере, значению константы MIN_PDFLUSH_THREADS, что по умол чанию соответствует 2. Таким образом, количество потоков p d f l u s h изменяется ди намически в зависимости от количества страниц, для которых необходима обратная запись, и загруженности этих потоков. Если все потоки p d f l u s h заняты обратной записью, то создается новый поток. Это гарантирует, что ни одна из очередей запро сов устройств не будет перегружена, в то время как другие очереди устройств не так загружены и в них тоже можно выполнять обратную запись. Если перегрузка предот вращается, то количество потоков p d f l u s h уменьшается, чтобы освободить память.

Вce это хорошо, но что если все потоки p d f l u s h зависнут в ожидании записи в одну и ту же перегруженную очередь? В этом случае производительность нескольких потоков p d f l u s h не будет выше производительности одного потока, а количество занятой памяти станет значительно большим. Чтобы уменьшить такой эффект, для потоков p d f l u s h реализован алгоритм предотвращения зависания (congestion avoi dance). Потоки активно начинают обратную запись страниц для тех очередей, ко торые не перегружены. В результате потоки p d f l u s h распределяют свою работу по разным очередям и воздерживаются от записи в перегруженную очередь. Когда все потоки p d f l u s h заняты работой и запускается новый поток, то это означает, что они действительно заняты.

В связи с усовершенствованием алгоритмов обратной записи страниц, включая введение демона b d f l u s h, ядро серии 2.6 позволяет поддерживать в загруженном состоянии значительно большее количество дисков, чем в более старых версиях ядер. При активной работе потоки p d f l u s h могут обеспечить большую пропускную способность сразу для большого количества дисковых устройств.

340 Глава Коротко о главном В этой главе был рассмотрен страничный кэш и обратная запись страниц. Было показано, как ядро выполняет все операции страничного ввода-вывода, как опера ции записи откладываются с помощью дискового кэша и как данные записываются на диск с помощью группы потоков пространства ядра pdf lush.

На основании материала последних нескольких глав вы получили устойчивое представление о том, как выполняется управление памятью и файловыми система ми. Теперь давайте перейдем к теме модулей и посмотрим, ядро Linux обеспечивает модульную и динамическую инфраструктуру для загрузки кода ядра во время работы системы.

Страничный кэш и обратная запись страниц Модули Н есмотря на то что ядро является монолитным, в том смысле что все ядро вы полняется в общем защищенном адресном домене, ядро Linux также является модульным, что позволяет выполнять динамическую вставку и удаление кода ядра в процессе работы системы. Соответствующие подпрограммы, данные, а также точки входа и выхода группируются в общий бинарный образ, загружаемый объект ядра, который называется модулем. Поддержка модулей позволяет системам иметь мини мальное базовое ядро с опциональными возможностями и драйверами, которые компилируются в качестве модулей. Модули также позволяют просто удалять и пере гружать код ядра, что помогает при отладке, а также дает возможность загружать драйверы по необходимости в ответ на появление новых устройств с функциями го рячего подключения.

В этой главе рассказывается о хитростях, которые стоят за поддержкой модулей в ядре, и о том, как написать свой собственный модуль.

Модуль "Hello,World!" В отличие от разработки основных подсистем ядра, большинство из которых были уже рассмотрено, разработка модулей подобна созданию новой прикладной программы, по крайней мере в том, что модули имеют точку входа, точку выхода и находятся каждый в своем бинарном файле.

Может показаться банальным, но иметь возможность написать программу, кото рая выводит сообщение "Hello World!", и не сделать этого- просто смешно. Итак, леди и джентльмены, модуль "Hello, World!".

/* * hello.с - модуль ядра Hello, World!

/* #include #include #include /* * hello_init - функция инициализации, вызывается при загрузке модуля, * В случае успешной загрузки модуля возвращает значение нуль, * и ненулевое значение в противном случае.

*/ static int hello_init(void) { printk(KERN_ALERT "I bear a charmed life.\n");

return 0;

} /* * hello_exit - функция завершения, вызывается при выгрузке модуля.

*/ static void hello_exit (void) { printk(KERN_ALERT "Out, out, brief candle!\n");

} module_init(hello_init);

module_exit(hello_exit);

MODULE_LICENSE{"GPL");

MODULE_AUTHOR("Shakespeare");

Это самый простой модуль ядра, который только может быть. Функция h e l l o _ i n i t () регистрируется с помощью макроса m o d u l e _ i n i t () в качестве точки входа в модуль. Она вызывается ядром при загрузке модуля. Вызов m o d u l e _ i n i t () — это не вызов функции, а макрос, который устанавливает значение своего параметра в ка честве функции инициализации. Все функции инициализации должны соотпетство вать следующему прототипу.

int my_init(void);

Так как функция инициализации редко вызывается за пределами модуля, ее обыч но не нужно экспортировать и можно объявить с ключевым словом s t a t i c.

Функции инициализации возвращают значение тина i n t. Если инициализация (или то, что делает функция инициализации) прошла успешно, то функция должна возвратить значение нуль. В случае ошибки возвращается ненулевое значение.

В данном случае эта функция просто печатает сообщение и возвращает значе ние нуль. В настоящих модулях функция инициализации регистрирует ресурсы, вы деляет структуры данных и т.д. Даже если рассматриваемый файл будет статически скомпилирован с ядром, то функция инициализации останется и будет вызвана при загрузке ядра.

Функция h e l l o _ e x i t () регистрируется в качестве точки выхода из модуля с помощью макроса m o d u l e _ e x i t (). Ядро вызывает функцию h e l l o _ e x i t (), когда модуль удаляется из памяти. Завершающая функция должна выполнить очистку ре сурсов, гарантировать, что аппаратное обеспечение находится в непротиворечивом состоянии, и т.д. После того как эта функция завершается, модуль выгружается.

Завершающая функция должна соответствовать следующему прототипу.

void my_exit(void);

Так же как и в случае функции инициализации, ее можно объявить как s t a t i c.

344 Глава Если этот файл будет статически скомпилирован с образом ядра, то данная функ ция не будет включена в образ и никогда не будет вызвана (так как если нет модуля, то код никогда не может быть удален из памяти).

Макрос MODULE_LICENSE () позволяет указать лицензию на право копирования модуля. Загрузка в память модуля, для которого лицензия не соответствует GPL, при ведет к установке в ядре флага t a i n t e d (буквально, испорченное). Этот флаг служит для информационных целей, кроме того, многие разработчики уделяют меньше вни мания сообщениям об ошибках, в которых указан этот флаг. Более того, модули, у которых лицензия не соответствует GPL, не могут использовать символы, которые служат "только для GPL" (см. раздел "Экспортируемые символы" ниже в этой главе).

Наконец, макрос MODULE_AUTHOR () позволяет указать автора модуля. Значение этого макроса служит только для информационных целей.

Сборка модулей Благодаря новой системе сборки "kbuild", в ядрах серии 2.6 сборка модулей вы полняется значительно проще, чем в старых сериях. Первое, что нужно сделать при сборке модулей, — это решить, где будет находиться исходный код модуля. Исходный код модуля необходимо правильно объединить с деревом исходных кодов ядра. Это можно сделать в виде заплаты или путем добавления в официальное дерево исходно го кода ядра. Кроме этого, можно компилировать исходный код модуля отдельно от исходных кодов ядра.

Использование дерева каталогов исходных кодов ядра В идеале модуль является частью официального ядра и находится в каталоге ис ходных кодов ядра. Введение вашей разработки непосредственно в ядро может вна чале потребовать больше работы, но обычно такое решение более предпочтитель но.

На первом этапе необходимо решить, где именно будет находиться модуль в де реве исходных кодов ядра. Драйверы необходимо хранить в подкаталогах каталога d r i v e r s /, который находится в корне дерева исходных кодов ядра. Внутри этого каталога драйверы делятся на классы, типы и собственно на отдельные драйверы.

Символьные устройства находятся в каталоге d r i v e r s / c h a r /, блочные— в каталоге d r i v e r s / b l o c k /, устройства USB — в каталоге d r i v e r s / u s b /. Эти правила не есть жесткими, так как многие устройства USB также являются и символьными устрой ствами. Но такая организация является понятной и четкой.

Допустим, что вы хотите создать свой подкаталог и ваш воображаемый драйвер разработан для удочки с числовым программным управлением, которая имеет интер фейс Fish Master XL 2000 Titanium для подключения к компьютеру. Следовательно, необходимо создать подкаталог f i s h i n g внутри каталога d r i v e r s / c h a r /.

После этого необходимо добавить новую строку в файл M a k e f i l e, который на ходится в каталоге d r i v e r s / c h a r /. Для этого отредактируйте файл d r i v e r s / c h a r / Makefile и добавьте в него следующую запись.

obj-m += fishing/ Модули Эта строка указывает системе компиляции, что необходимо войти в подкаталог f i s h i n g / при компиляции модулей. Скорее всего, компиляция драйвера определя ется отдельным конфигурационным параметром, например, CONFIG_FISHING_POLE (как создавать новые конфигурационные параметры, рассмотрено ниже в этой главе в разделе "Управление конфигурационными параметрами"). В этом случае необходи мо добавить строку следующего вида.

obj-$(CONFIG_FISHING_POLE) += fishing/ И наконец, в каталоге d r i v e r s / c h a r / f i s h i n g необходимо добавить новый файл Makefile, содержащий следующую строку.

obj-m += fishing.о При таких настройках система компиляции перейдет в каталог f i s h i n g / и ском пилирует модуль f i s h i n g. к о из исходного файла f i s h i n g. с. Да, расширение объ ектного файла указано как.о, но в результате будет создан модуль с расширением.ко.

И снова, скорее всего, факт компиляции модуля будет зависеть от конфигура ционного параметра, в таком случае в Makefile необходимо добавить следующую строку.

obj-$(CONFIG_FISHING_POLE) += fishing.о Однажды драйвер удочки может стать очень сложным. Введение функции авто детектирования наличия лески может привести к тому, что модуль станет очень большим и теперь будет занимать больше одного файла исходного кода. Никаких проблем! Просто нужно внести в Makefile следующую запись.

obj-$(CONFIG_FISHING_POLE) += fishing.о fishing-objs := fishing-main.о fishing-line.о В последнем случае будут скомпилированы файлы f i s h i n g - m a i n. с и f i s h i n g - l i n e. с и скомпонованы в файл модуля f i s h i n g. к о.

Наконец, может потребоваться передать компилятору gcc дополнительные кон фигурационные параметры. Для этого в файле Makefile необходимо добавить сле дующую строку.

EXTRA_CFLAGS += -DTITANIUM_POLE Если вы желаете поместить ваши файлы в каталог d r i v e r s / c h a r /, вместо того чтобы создавать новый подкаталог, то необходимо просто прописать указанные строки (тс, что должны быть прописаны в файле M a k e f i l e подкаталога d r i v e r s / c h a r / f i s h i n g / ) в файле d r i v e r s / c h a r / M a k e f i l e.

Для компиляции просто запустите процесс сборки ядра, как обычно. Если ком пиляция модуля зависит от конфигурационного параметра, как в данном случае она зависит от параметра CONFIG_FISHING_POLE, то необходимо включить этот конфи гурационный параметр перед компиляцией.

346 Глава Компиляция вне дерева исходных кодов ядра Если вы предпочитаете разрабатывать и поддерживать ваш модуль отдельно от дерева исходных кодов ядра и жить жизнью аутсайдера, просто создайте файл Makefile следующего вида в том каталоге, где находится модуль.

obj-m := fishing.о Такая конфигурация позволяет скомпилировать файл fishing. с в файл fishing. ко.

Если ваш исходный код занимает несколько файлов, то необходимо добавить две строки.

obj-m := fishing.о fishing-objs := fishing-main.о fishing-line.о Такая конфигурация позволяет скомпилировать файлы f i s h i n g - m a i n. с и f i s h i n g - l i n e. с и создать модуль f i s h i n g, ко.

Главное отличие от случая, когда модуль находится внутри дерева исходного кода, состоит в процессе сборки. Так как модуль находится за пределами дерева исходных кодов ядра, необходимо указать утилите make местонахождение исходных файлов ядра и файл Makefile ядра. Это также делается просто с помощью следующей ко манды.

make -С /kerncl/source/location SUBDTRS=$PWD modules В этом примере / k e r n e l / s o u r c e / l o c a t i o n — путь к сконфигурированному де реву исходных кодов ядра. Вспомните, что не нужно хранить копию дерева исходных кодов ядра, с которой вы работаете, в каталоге / u s r / s r c / l i n u x, эта копия должна быть где-то в другом месте, скажем где-нибудь в вашем домашнем каталоге.

Инсталляция модулей Скомпилированные модули должны быть инсталлированы в каталог /lib/modules/ version/kernel. Например, для ядра 2.6.10 скомпилированный модуль управления удочкой будет находиться в файле / l i b / m o d u l e s / 2. 6. 1 0 / k e r n e l / d r i v e r s / c h a r / f i s h i n g. к о, если исходный код находился непосредственно в каталоге d r i v e r s / char/.

Для инсталляции скомпилированных модулей в правильные каталоги использует ся следующая команда.

make modules_install Разумеется, эту команду необходимо выполнять от пользователя root.

Генерация зависимостей между модулями Утилиты работы с модулями ОС Linux поддерживают зависимости между моду лями. Это означает, что если модуль chum зависит от модуля b a i t, то при загрузке модуля chum модуль b a i t будет загружен автоматически. Информация о зависимо стях между модулями должна быть сгенерирована администратором. В большинстве поставок ОС Linux эта информация генерируется автоматически и обновляется при Модули загрузке системы. Для генерации информации о зависимостях между модулями не обходимо от пользователя root выполнить следующую команду.

depmod Для быстрого обновления и генерации информации только о более новых моду лях, чем сам файл информации, необходимо от пользователя root выполнить другую команду.

depmod -A Информация о зависимостях между модулями хранится в файле / l i b / m o d u l e s / version/modules.dep.

Загрузка модулей Наиболее простой способ загрузки модуля — это воспользоваться утилитой insmod.

Эта утилита выполняет самые общие действия. Она просто загружает тот модуль, который ей указан в качестве параметра. Утилита insmod не отслеживает зависимо сти и не выполняет никакой интеллектуальной обработки ошибок. Использовать ее очень просто. От пользователя root необходимо просто выполнить команду insmod module где module— это имя модуля, который необходимо загрузить. Для загрузки модуля управления удочкой необходимо выполнить команду.

insmod fishing Удалить модуль можно аналогичным образом с помощью утилиты rmmod. Для это го от пользователя root нужно просто выполнить команду.

rmmod module Например, удалить модуль управления удочкой можно следующим образом.

rmmod fishing Тем не менее, эти утилиты тривиальные и не обладают интеллектуальным по ведением. Утилита modprobe позволяет обеспечить удовлетворение зависимостей, оповещение об ошибках, интеллектуальную обработку ошибок, а также выполняет множество других расширенных функций. Её настоятельно рекомендуется исполь зовать.

Для загрузки модуля в ядро с помощью утилиты modprobe необходимо от пользо вателя root выполнить команду modprobe module [ module parameters ] где параметр module — это имя модуля, который необходимо загрузить. Все следую щие аргументы интерпретируются как параметры, которые передаются модулю при загрузке. Параметры модулей обсуждаются ниже в одноименном разделе.

Утилита modprobe пытается загрузить не только указанный модуль, но и все мо дули, от которых он зависит. Следовательно, это наиболее предпочтительный меха низм загрузки модулей ядра.

348 Глава Команда modprobe также может использоваться для удаления модулей из ядра.

Для этого с правами пользователя root необходимо выполнить ее следующим обра зом.

modprobe Pr modules где параметр modules — имя одного или нескольких модулей, которые необходимо удалить. В отличие от команды rmmod, утилита modprobe также удаляет и все моду ли, от которых указанный модуль зависит, если последние не используются.

В восьмом разделе страниц руководства операционной системы Linux приведен список других, менее используемых ключей этой команды.

Управление конфигурационными параметрами В предыдущих разделах рассматривалась компиляция модуля управления удочкой при условии, что установлен конфигурационный параметр CONFIG_FISHING_POLE.

Конфигурационные параметры рассматривались в предыдущих главах, а теперь да вайте рассмотрим добавление нового параметра в продолжение примера модуля управления удочкой.

Благодаря новой системе компиляции ядра "kbuild", которая появилась в серии ядер 2.6, добавление нового конфигурационного параметра является очень простым делом. Все, что необходимо сделать, — это добавить новую запись в файл Kconf ig, который отвечает за конфигурацию дерева исходных кодов ядра. Для драйверов этот файл обычно находится в том же каталоге, в котором находится и исходный код. Если код драйвера удочки находится в каталоге d r i v e r s / c h a r /, то необходи мо использовать файл drivers/char/Kconfig.

Если был создан новый каталог и есть желание, чтобы файл конфигурации на ходился в этом новом каталоге, то необходимо на него сослаться из существующего файла Kconf ig. Это можно сделать путем добавления строки source Tdrivers/char/fishing/Kconfig в существующий файл Kconfig, скажем в файл drivers/char/Kconfig.

Конфигурационные записи в файле Kconfig добавляются очень просто. Для мо дуля управления удочкой эта запись может выглядеть следующим образом.

config FISHING_POLE tristate "Fish Master XL support" default n help If you say Y here, support for the Fish Master XL 2000 Titanium with computer interface will be compiled into the kernel and accessible via device node. You can also say M here and the driver will be built as a module named fishing.ko.

If unsure, say N.

Модули Первая строка определяет, какой конфигурационный параметр создается.

Обратите внимание, что префикс CONFIG_ указывать не нужно, он добавляется ав томатически.

Вторая строка указывает на то, что параметр может иметь три состояния (tristate), которые соответствуют следующим значениям: статическая компиляция в ядро (Y), компиляция в качестве модуля (М) или не компилировать драйвер вообще (N). Для того чтобы запретить компиляцию кода, который соответствует конфигурационному параметру, в качестве модуля (допустим, что этот параметр определяет не драйвер.

а просто некоторую дополнительную функцию) необходимо указать ТИП параметра bool вместо t r i s t a t e. Текст в кавычках, который следует после этой директивы, определяет название конфигурационного параметра и будет отображаться различны ми утилитами конфигурации.

Третья строка позволяет указать значение этого параметра по умолчанию, кото рый соответствует в данном случае запрещению компиляции.

Директива h e l p указывает на то, что остальная часть текста будет интерпре тироваться как описание данного модуля. Различные конфигурационные утилиты могут при необходимости отображать этот текст. Так как этот текст предназначен для пользователей и разработчиков, которые будут компилировать ядро, то он дол жен быть коротким и ясным. Обычные пользователя, скорее всего, не будут компи лировать ядро, а сели будут, то тогда они должны понимать, что в этом описании сказано.

Существуют также и другие директивы файла конфигурации. Директива depends указывает на конфигурационные параметры, которые должны быть установлены перед тем, как может быть установлен текущий параметр. Если зависимости не бу дут удовлетворены, то текущий параметр будет запрещен. Например, можно указать следующую директиву.

depends on FISH_TANK При этом текущий модуль не будет разрешен, пока не будет разрешен модуль, со ответствующий конфигурационному параметру CONFIG_FISH_TANK.

Директива s e l e c t аналогична директиве d e p e n d s, за исключением того, что она принудительно включает указанный конфигурационный параметр, если вклю чается текущая конфигурационная опция. Ее не нужно использовать так же часто, как директиву depends, потому что она включает другие конфигурационные опции.

Использовать ее так же просто.

select BAIT В этом случае конфигурационный параметр CONF'IG_BAIT автоматически активи зируется при включении конфигурационного параметра CONFIG_FISHING_POLE.

Как для директивы s e l e c t, так и для директивы d e p e n d s можно указывать не сколько параметров с помощью оператора &&. В директиве depends с помощью вос клицательного знака перед параметром можно указать требование, что некоторый конфигурационный параметр не должен быть установлен. Например, следующая запись указывает, что для компиляции текущего драйвера необходимо, чтобы был установлен конфигурационный параметр CONFIG_DUMB_DRIVERS и не был установ лен параметр CONFIG_NO_FISHING_ALLOWED.

Pages:     | 1 |   ...   | 5 | 6 || 8 | 9 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.