WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 6 | 7 || 9 | 10 |   ...   | 24 |

«Oracle для профессионалов Том Кайт DiaSoft 2003 торгово-издательский дом Москва • Санкт-Петербург • Киев УДК 681.3. 06(075) Б Б К 32.973.2 К 91 КАЙТ ТОМ К 91 Oracle для профессионалов. Пер. с ...»

-- [ Страница 8 ] --

FILESIZE QUERY нет Позволяет связывать конструкцию WHERE с экспортируемыми таблицами. Конструкция WHERE будет применяться к строкам в ходе экспорта на уровне таблиц, при этом будут экспортироваться только строки, удовлетворяющие конструкции WHERE. Это позволяет экспортировать "срез" таблицы. Пример см. в разделе "Выделение подмножеств данных". Если имеет значение Y, экспортируется вся база данных. При этом выбираются все пользователи, определения табличных пространств, системные привилегии и остальное содержимое базы данных. Позволяет задать список схем для экспорта. Используется для клонирования схемы или "переименования" пользователя. Позволяет задать список экспортируемых таблиц. Задает имя файла параметров, содержащего пары parameter_name = values. Может использоваться как альтернативный вариант заданию всех параметров в командной строке. Чаще всего используется для задания длинных списков экспортируемых таблиц или параметра QUERY. Указывает, должно ли экспортирование выполняться в транзакции только для чтения. Это гарантирует согласованность различных таблиц. Как было описано в главе 3, каждый отдельный запрос выполняется как согласованный по чтению. Транзакция только для чтения (или с уровнем изолированности SERIALIZABLE) распространяет согласованность по чтению до уровня транзакции. Если экспортируются таблицы, связанные декларативным требованием целостности ссылок (Rl - Referential Integrity) или вложенные таблицы и в дальнейшем планируется импортировать их вместе, рекомендуется использовать параметр consistent = Y. Это особенно важно, если велика вероятность изменения таблиц при экспортировании.

FULL N OWNER нет TABLES PARFILE нет нет CONSISTENT N Импорт и экспорт Имя Стандартное параметра значение TRANSPORT_ TABLESPACE N Назначение/Примечания Указывает, будет ли утилита ЕХР использоваться для экспортирования метаданных набора переносимых табличных пространств. Подробнее об этом см. в разделе "Перенос данных". Используется совместно с параметром TRANSPORT_TABLESPACE, чтобы задать список табличных пространств для переноса.

TABLESPACES нет Параметры утилиты IMP Вот какой результат выдает утилита IMP при передаче ей параметра H E L P = Y:

С:\exp>imp help=y Import: Release 8.1.6.0.0 - Production on Mon Mar 19 16:10:14 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

You can let Import prompt you for parameters by entering the IMP command followed by your username/password: Example: IMP SCOTT/TIGER Or, you can control how Import runs by entering the IMP command followed by various arguments. To specify parameters, you use keywords: Format: IMP KEYWORD=value or KEYWORD=(value1,value2,...,valueN) Example: IMP SCOTT/TIGER IGNORE=Y TABLES=(EMP,DEPT) FULL=N or TABLES=(T1:P1,T1:P2), if Tl is partitioned table USERID must be the first parameter on the command line. Keyword Description (Default) Keyword Description (Default) import entire file (N) USERID username/password FULL list of usernames FILE input files (EXPDAT.DMP) TOUSER list of table names SHOW just list file contents (N) TABLES IGNORE ignore create errors (N) RECORDLENGTH length of IO record incremental import type GRANTS import grants (Y) INCTYPE commit array insert (N) INDEXES import indexes (Y) COMMIT parameter filename ROWS import data rows (Y) PARFILE import constraints (Y) LOG log file of screen output CONSTRAINTS DESTROY overwrite tablespace data file (N) INDEXFILE write table/index info to specified file SKIP_UNUSABLE_INDEXES skip maintenance of unusable indexes (N) ANALYZE execute ANALYZE statements in dump file (Y) FEEDBACK display progress every x rows(0) Глава TOID_NOVALIDATE skip validation of specified type ids FILESIZE maximum size of each dump file RECALCOLATE_STATISTICS recalculate statistics (N) The following keywords only apply to transportable tablespaces TRANSPORT_TABLESPACE import transportable tablespace metadata (N) TABLESPACES tablespaces to be transported into database DATAFILES datafiles to be transported into database TTS_OWNERS users that own data in the transportable tablespace set Import terminated successfully without warnings. Давайте рассмотрим существенные параметры, не описанные в разделе, посвященном утилите ЕХР. Имя параметра SHOW Стандартное Назначение/Примечания значение N Если установлено значение Y, утилита импорта покажет свои потенциальные действия, не выполняя импортирование реально. Если задан параметр SHOW = Y, объекты не создаются и данные не добавляются. Если установлено значение Y, IMP будет игнорировать большинство ошибок создания объектов. Пригодится, если объекты уже созданы в базе данных и IMP используется только для наполнения таблиц данными. Если этот параметр задан, IMP будет сбрасывать все операторы CREATE INDEX и множество других операторов ЯОД в указанный файл индексов (с комментариями в начальных строках, начинающихся с REM). Другие объекты из файла DMP не обрабатываются, создается только файл индексов. С помощью этого параметра задают список пользователей, объекты которых надо импортировать из файла DMP. Можно использовать для восстановления одной схемы из файла экспорта всей базы данных. Если этот параметр указан, объекты пользователя, задаваемого параметром FROMUSER, импортируются в пользовательскую схему, имя которой является значением параметра TOUSER. Это позволяет "клонировать" пользовательскую схему.

IGNORE N INDEXFILE нет FROMUSER нет TOUSER нет Импорт и экспорт Имя Стандартное Назначение/Примечания параметра значение COMMIT N Указывает, должна ли утилита IMP фиксировать изменения после каждой множественной вставки. Количество вставляемых строк определяется параметром BUFFER. Обычно утилита IMP выполняет COMMIT после полной загрузки таблицы. Поскольку операторы вставки генерируют минимальный объем данных отката, при частом фиксировании замедляется вставка и увеличивается объем информации, записываемой в журналы повторного выполнения. Кроме того, продолжить работу IMP с места сбоя нельзя, поэтому я рекомендую оставлять для параметра значение N. При использовании вместе с параметром TRANSPORTABLE_TABLESPACES задает список TTS_OWNERS нет владельцев объектов в переносимом табличном пространстве.

Экспортирование больших объемов данных При использовании утилиты ЕХР для записи на устройство, поддерживающее произвольную адресацию (seeking), например, в обычные файлы, она ограничена максимальным размером генерируемого файла. Утилита ЕХР использует обычные библиотеки функций ОС, что на 32-битовых операционных системах ограничивает размер файла 2 Гбайтами. Я знаю четыре решения этой проблемы (хотя, вероятно, есть и другие).

Использование параметра FILESIZE Этот параметр впервые появился в Oracle 8i. С помощью параметра FILESIZE можно установить максимальный размер (в байтах) файлов DMP, создаваемых в ходе экспортирования, и утилита ЕХР будет создавать столько файлов, сколько необходимо для экспорта всех данных. Например, чтобы экспортировать в набор файлов, размер каждого из которых не должен превосходить 500 Мбайт, можно использовать команду:

exp userid=tkyte/tkyte f i l e = fl,f2,f3,f4,f5 filesize=00m owner = scott В результате будут созданы DMP-файлы fl.dmp, f2.dmp и так далее, и размер каждого из них не будет превышать 500 Мбайт. Если общий объем экспортируемых данных будет менее 2 Гбайт, утилите ЕХР не придется создавать файл f5.dmp. Проблема только в том, что невозможность заранее оценить объем экспортируемых данных делает процесс экспортирования интерактивным и трудно автоматизируемым. Рассмотрим сеанс экспорта, в котором около 2,3 Мбайт данных экспортируются в DMPфайлы размером 500 Кбайт:

С:\ехр>ехр userid=tkyte/tkyte tables=t file=(tl,t2,t3) filesize=500k Export: Release 8.1.6.0.0 - Production on Mon Mar 19 14:54:12 Глава 8 All rights reserved.

(с) Copyright 1999 Oracle Corporation.

Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 — Production With the Partitioning option JServer Release 8.1.6.0.0 — Production Export done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set About to export specified tables via Conventional Path..... exporting table T continuing export into file t2.DMP continuing export into file t3.DMP Export file: EXPDAT.DMP > t4 continuing export into file t4.DMP Export file: EXPDAT.DMP > t5 continuing export into file t5.DMP 21899 rows exported Export terminated successfully without warnings.

Текст "Export file: EXPDAT.DMP>" является интерактивным приглашением. Использовав все имена файлов, заданные в командной строке — (tl, tl, t3), — утилита EXP начала запрашивать имя следующего файла. Если бы речь шла о пакетном сценарии, работающем поздно ночью, то утилита ЕХР просто ждала бы ответа на запрос или (в зависимости от обстоятельств вызова) аварийно завершила работу, не получив ответа. Этот способ может оказаться приемлемым во многих случаях. Если, предположим, известно, что объем экспорта не превысит 100 Гбайт (разумное предположение для базы данных объемом 50 Гбайт, например), можно задать для FILESIZE значение два гигабайта и сгенерировать список из 50 имен файлов в файле параметров (PARFILE) с помошью сценария. Затем просто указать PARFILE = thatlist.par вместо FILE = (очень длинный список). Для импортирования этих данных надо вызвать утилиту IMP и передать ей список файлов в порядке их создания. Утилита IMP не проверят порядок файлов;

выявив нарушение последовательности, она аварийно завершит работу. К счастью, можно указать больше файлов, чем фактически понадобится. Так что при использовании рекомендованного выше файла PARFILE в нем можно задавать и несуществующие файлы — утилита IMP на это не отреагирует. Вот пример:

C:\exp>imp userid=tkyte/tkyte full=y file=(tl,t2,t3,t4,t5,t6) Import: Release 8.1.6.0.0 - Production on Mon Mar 19 15:49:24 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 - Production With the Partitioning option JServer Release 8.1.6.0.0 - Production Импорт и экспорт Export file created by EXPORT:V08.01.06 via conventional path import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set IMP-00046: using FILESIZE value from export file of 512000. inserting TKYTE's objects into TKYTE.. importing table "T" 21899 rows imported Import terminated successfully with warnings.

Экспортирование по частям Это способ решить проблему, просто избегая ее. Если имеется база данных объемом 10 Гбайт с 50 схемами приложений, причем объем данных в каждой схеме не превосходит 2 Гбайт, можно выполнять экспортирование на уровне пользователей. В результате будет экспортировано 50 файлов, каждый из которых содержит схему одного приложения.

Экспортирование в именованный канал Это решение прекрасно работает в ОС UNIX. Я пока не нашел способа реализовать его в среде Windows. В данном случае с помощью команды mknod создается именованный канал. Именованный канал — это специальный файл, с помощью которого один процесс может записывать в канал данные, а процесс с другой стороны канала — читать их. Утилита ЕХР может записывать в каналы неограниченный объем данных, поскольку каналы не поддерживают абсолютную адресацию. Процесс, читающий данные из канала, может выполнять сжатие данных. Таким образом, можно одновременно экспортировать и сжимать данные. Если размер сжатого файла превышает 2 Гбайт, можно использовать утилиту split для разбиения его на меньшие части. Ниже представлен сценарий командного интерпретатора, реализующий этот подход в ОС UNIX. Этот сценарий также показывает, как импортировать сжатые и разбитые на части данные, поскольку сразу после экспортирования выполняется полное импортирование с параметром SHOW = Y для проверки целостности созданного DMP-файла:

#!/bin/ceh -f # Установите эту переменную равной значению идентификатора пользователя, от # имени которого выполняется экспорт. Я всегда использую учетные записи # OPS$ (аутентифицируемые операционной системой) для всех заданий, # выполняемых в пакетном режиме. В этом случае в файле сценария или # результатах работы команды ps никогда не появляется пароль, setenv UID / # Это имя файла экспорта. Команда SPLIT будет использовать его для # именования фрагментов сжатого DMP-файла. setenv FN exp.`date +%j_%Y`.dmp # Это имя используемого именованного канала, setenv PIPE /tmp/exp_tmp_ora8i.dmp Глава # Здесь я ограничиваю размер сжатых файлов до 500 Мбайт. Подойдет любое # значение меньше 2 Гбайт, setenv MAXSIZE 500m # Задаем что экспортировать. По умолчанию экспортируется вся база данных, setenv EXPORT_WHAT "full=y COMPRESS=n" # Вот где размещаются файлы экспорта, cd /nfs/atc-netappl/expbkup_ora8i # Удаляем файлы, оставшиеся после предыдущего экспортирования, rm expbkup.log export.test exp.*.dmp* $PIPE # Создаем именованный канал, mknod $PIPE p # Записываем дату и время в журнальный файл, date > expbkup. log # # # # # ( Запускаем процесс gzip в фоновом режиме. Программа gzip будет считывать сжатые данные из именованного канала и передавать их утилите split. Из полученных данных утилита split будет создавать файлы размером 500 Мбайт, добавляя суффиксы.аа,.ab,.ас,.ad,... к шаблону имени файла, заданному в переменной $FN. gzip < $PIPE ) | split -b $MAXSIZE - $FN. & # Теперь начинаем экспортировать. Вызванная ранее программа gzip ожидает, # пока в именованный канал начнут выдаваться данные. exp userid=$UID buffer=20000000 file=$PIPE $EXPORT_WHAT >>& expbkup.log date >> expbkup.log # # # # # # # По завершении экспорта утилита IMP используется следующим образом. Имена файлов сортируются, после чего их содержимое с помощью команды cat направляется последовательно утилите gunzip. Результат направляется в именованный канал. Утилита IMP считывает данные из этого канала и выдает соответствующие результаты в стандартный поток ошибок. Конструкция »& в командном интерпретаторе csh переправляет в указанный файл как стандартный выходной поток, так и стандартный поток ошибок.

date > export.test cat 'echo $FN.* | sort | gunzip > $PIPE & imp userid=$UID file=$PIPE show=y full=y >>& export.test date >> export.test # Удаляем именованный канал, он нам больше не нужен, rm -f $PIPE Если сервер работает в ОС UNIX, лично мне описанный выше подход кажется лучше, чем использование параметра FILESIZE = со списком имен файлов в командной строке, по двум причинам. Во-первых, он позволяет сжать данные перед записью на диск, а во-вторых, никогда не запрашивает у пользователя имена файлов.

Импорт и экспорт Экспортирование на устройство, не поддерживающее абсолютную адресацию Это решение тоже пригодно только для ОС UNIX. Можно экспортировать непосредственно на ленточное устройство, указав его имя в качестве файла экспорта. Например:

exp userid=tkyte/tkyte file=/dev/rmt/O volsize=6000m full=у Данные будут экспортироваться непосредственно на ленту с остановкой через каждые 6000 Мбайт для смены ленты (при необходимости).

Выделение подмножеств данных В Oracle 8i появилась возможность использовать утилиту ЕХР для экспортирования отдельных строк таблицы. До этой версии утилита ЕХР работала по принципу "все или ничего". Сейчас можно использовать параметр QUERY= для задания конструкции WHERE, которая будет применяться к экспортируемой таблице. Следует отметить, что при использовании конструкции WHERE (параметра QUERY) непосредственный режим экспортирования (direct path mode) недоступен;

если необходимо подмножество данных, экспортирование выполняется в обычном режиме (conventional path mode). Способ задания параметра QUERY = зависит от операционной системы. Конструкция WHERE в общем случае содержит много специальных символов, таких как >, < и пробелы. Командные интерпретаторы в UNIX и Windows не "жалуют" подобные символы. Эти символы надо маскировать, а способ маскировки зависит от используемой операционной системы. Я предпочитаю всегда задавать параметр QUERY в файле PARFILE. Тогда можно использовать одни и те же командные строки, независимо от платформы. Для демонстрации я создал таблицу Т как SELECT * FROM ALL_OBJECTS. Я хочу экспортировать все строки, в которых столбец object_id имеет значение менее 5000. В ОС Windows для этого пришлось бы выполнить:

C:\exp>exp userid=tkyte/tkyte tables=t query="""where object_id < 5000""" Обратите внимание, что в Windows необходимо указывать по три двойные кавычки с обеих сторон конструкции WHERE. Аналогичная команда в ОС UNIX имеет вид:

$ exp userid=tkyte/tkyte tables=t query=\ "where object_id \< 5000\" Однако если просто использовать файл параметров, exp.par, содержащий следующий аргумент:

query="where object_id < 5000" то можно использовать в обеих системах одну и ту же команду:

exp userid=tkyte/tkyte tables=t parfile=exp.par Я думаю, это намного проще, чем правильно замаскировать строки QUERY на разных платформах.

Глава Перенос данных Переносимое табличное пространство позволяет взять сформатированные файлы данных из одной базы данных и подключить их к другой. Вместо того чтобы выгружать данные в текстовый файл или файл DMP, а затем вставлять эти данные в другую базу, можно перенести табличное пространство. Это позволяет перемещать данные так же быстро, как и копировать файлы. На переносимые табличные пространства налагается ряд ограничений. • Исходная и целевая базы данных должны работать на одной аппаратной платформе. Нельзя, например, перенести файлы данных с Windows NT на HP/UX. Файл DMP можно копировать из одной ОС в другую, но файлы данных — нет;

в отличие от файлов DMP, файлы данных — зависимы от ОС. • Исходная и целевая базы данных должны использовать один и тот же набор символов. Нельзя, например, взять набор файлов из базы данных с набором символов WE8ISO8859P1 и подключить их к экземпляру, работающему в кодировке UTF8. • В целевой базе данных не должно быть табличного пространства с тем же именем. Будет использоваться имя табличного пространства из исходной базы данных. Если в целевой базе данных уже есть табличное пространство с таким именем, сервер Oracle не сможет подключить одноименное. • Размеры блока в исходной и целевой базе данных должны совпадать. Нельзя подключить файл из базы данных с размером блока 4 Кбайт к базе данных с размером блока 8 Кбайт. • Необходимо переносить самодостаточный набор объектов. Например, нельзя переносить табличное пространство, содержащее индекс, не перенося при этом табличное пространство, содержащее индексируемую таблицу. • Нельзя переносить некоторые объекты. Это материализованные представления, индексы по функциям, прикладные индексы (например, создаваемые компонентом interMedia), ссылки и очереди (advanced queues) с несколькими реципиентами. • В исходной базе данных переносимое табличное пространство должно быть временно переведено в режим READ ONLY. Речь идет о периоде времени, достаточном для экспортирования метаданных табличного пространства и копирования файлов данных. • Нельзя переносить объекты, принадлежащие пользователю SYS. Если в табличном пространстве имеются объекты, принадлежащие SYS, перенос завершится неудачно. Это означает, что такие объекты, как сегменты отката, табличное пространство SYSTEM и др., не могут быть перенесены (что логично, поскольку нет смысла транспортировать эти объекты).

Импорт и экспорт В следующем примере показаны все шаги, необходимые для переноса табличного пространства. Чтобы было интереснее, я использую два табличных пространства. Начнем с организации табличных пространств, таблиц и создания нового пользователя:

SQL> create tablespace tts_ex1 2 datafile 'c:\oracle\oradata\tkyte816\tts_exl.dbf' size 1m 3 extent management local uniform size 64k;

Tablespace created. SQL> create tablespace tts_ex2 2 datafile 'c:\oracle\oradata\tkyte816\tts_ex2.dbf size lm 3 extent management local uniform size 64k;

Tablespace created. SQL> create user tts_user identified by tts_user 2 default tablespace tts_ex1 3 temporary tablespace temp;

User created. SQL> grant dba to tts_user;

Grant succeeded. SQL> connect tts_user/tts_user Connected. SQL> create table emp as select * from scott.emp;

Table created. SQL> create table dept as select * from scott.dept;

Table created. SQL> create index emp_idx on emp(empno) tablespace tts_ex2;

Index created. S Q L > create index dept_idx on dept(deptno) tablespace tts_ex2;

Index created. SQL> select object_type, object_name, 2 decode (status, 'INVALID','*','') status, 3 tablespace_name 4 from user_objects a, user_segments b 5 where a.object_name = b.segment_name (+) 6 order by object_type, object_name 7 / OBJECT_TYPE INDEX TABLE OBJECT_NAME DEPT_IDX EMP_IDX DEFT EMP S TABLESPACE_NAME TTS_EX2 TTS_EX2 TTS_EX1 TTS_EX Перед экспортированием необходимо убедиться, что переносится самодостаточный набор объектов. Можно переносить таблицу без индексов, но нельзя переносить индексы без соответствующих таблиц. Ниже показана процедура проверки самодостаточности табличного пространства или набора табличных пространств:

Глава SQL> exec sys.dbms_tts.transport_set_check('tts_exl', TRUE);

PL/SQL procedure successfully completed. SQL> select * from sys.transport_set_violations;

no rows selected SQL> exec sys.dbms_tts.transport_set_check('tts_ex2', TRUE);

PL/SQL procedure successfully completed. SQL> select * from sys.transport_set_violations;

VIOLATIONS Index TTS_USER.EMP_IDX in tablespace TTS_EX2 points to table TTS_USER.BMP in tablespace TTS_EX1 Index TTS_USER.DEPT_IDX in tablespace TTS_EX2 points to table TTS_USER.DEPT in tablespace TTS_EX1 SQL> exec sys.dbms_tts.transport_set_check('tts_exl, tts_ex2', TRUE);

PL/SQL procedure successfully completed. SQL> select * from sys.transport_set_violations;

no rows selected Табличное пространство TTS_EX1 можно переносить, поскольку оно содержит только данные таблицы и является самодостаточным. Однако попытка перенести табличное пространство TTS_EX2 закончится неудачей, поскольку оно содержит индексы, но не таблицы, по которым эти индексы построены. Два табличных пространства, TTS_EX1 и TTS_EX2, можно перенести вместе, поскольку при этом переносятся и таблицы, и индексы. Процедуру SYS.DBMS_TTS может выполнять любой администратор базы данных (администраторы обычно имеют привилегию EXECUTE ANY PROCEDURE) или любой пользователь, которому предоставлена роль EXECUTE_CATALOG_ROLE. В результате выполнения этой процедуры в динамически создаваемую таблицу записываются все ошибки, которые могут возникнуть при попытке переноса указанных табличных пространств. Теперь все готово для "отсоединения" или переноса соответствующих табличных пространств. Начнем с перевода их в режим READ ONLY:

SQL> alter tablespace tts_exl read only;

Tablespace altered. SQL> alter tablespace tts_ex2 read only;

Tablespace altered.

Затем выполняется команда ЕХР:

SQL> host exp userid="""sys/change_on_install as sysdba""" transport_tablespace=y tablespaces=(tts_exl,tts_ex2) Export: Release 8.1.6.0.0 - Production on Mon Mar 19 19:26:26 2001 (c) Copyright 1999 Oracle Corporation. Production With the Partitioning option All rights reserved.

Импорт и экспорт JServer Release 8.1.6.0.0 - Production Export done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set Dote: table data (rows) will not be exported About to export transportable tablespace metadata... For tablespace TTS_EX1.... exporting cluster definitions. exporting table definitions.. exporting table EMP.. exporting table DEPT For tablespace TTS_EX2.... exporting cluster definitions. exporting table definitions. exporting referential integrity constraints. exporting triggers. end transportable tablespace metadata export Export terminated successfully without warnings.

Обратите внимание на использование утроенных двойных кавычек для указания идентификатора пользователя в командной строке. В ОС UNIX придется маскировать еше и символ /. Чтобы избежать этого, можно дать указание утилите ЕХР запросить имя пользователя. Учтите также, что использована конструкция AS SYSDBA. Только пользователь SYSDBA (internal) может выполнять перенос в Oracle 8.1.6 и более новых версиях. В Oracle 8.1.5 было достаточно роли DBA. (Обратите внимание: в SQL*Plus эта команда должна вводиться одной строкой. В представленном выше примере строка перенесена.) Теперь осталось только скопировать файлы данных в другое место. Это можно делать параллельно с экспортированием, чтобы сократить время, в течение которого для пространств установлен режим "только для чтения":

S L host X O Y c:\orade\oradata\tkyte816\tts_ex7.dbf c:\temp Q> CP С:\orade\oradata\tkyte816\TTS_EXl.DBF С:\oracle\oradata\tkyte816\TTS_EX2.DBF 2 File(s) copied S L alter tablespace tts_ex1 read write;

Q> Tablespace altered. S L alter tablespace tts_ex2 read write;

Q> Tablespace altered.

Табличные пространства снова доступны для чтения и записи. Теперь можно перенести эти файлы и присоединить их к другой базе данных:

С:\ехр> imp file=expdat.drop userid="""sys/manager as sysdba""" transport_tablespace=y "datafiles=(c:\temp\tts_exl.dbf,с:\temp\tts_ex2.dbf)" Import: Release 8.1.6.0.0 - Production on Mon Mar 19 19:26:39 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 — Production Глава With the Partitioning option JServer Release 8.1.6.0.0 - Production Export file created by EXPORT:V08.01.06 via conventional path About to import transportable tablespace(s) metadata... import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set. importing SYS's objects into SYS. importing TTS_JSER's objects into TTS_USER. importing table "EMP". importing table "DEPT" Import terminated successfully without warnings. SQL> update emp set ename=lower(ename);

update emp set ename=lower(ename) * ERROR at line 1: ORA-00372: file 9 cannot be modified at this time ORA-01110: data file 9: 'C:\TEMP\TTS_EX1.DBF1 SQL> alter tablespace tts_exl read write;

Tablespace altered. SQL> alter tablespace tts_ex2 read write;

Tablespace altered. SQL> update emp set ename=lower(ename);

14 rows updated.

Вот и все, файлы присоединены к базе данных. Последний шаг показывает, что они присоединяются в режиме READ ONLY (это логично, поскольку при переносе для них был установлен режим "только для чтения"). После присоединения может потребоваться изменить режим доступа к ним. Если вы хотите проверить эту процедуру в одной базе данных, можете выполнить следующие или аналогичные команды в базе данных после перевода табличных пространств обратно в режим READ WRITE, но перед импортированием:

SQL> drop tablespace tts_exl including contents;

Tablespace dropped. SQL> drop tablespace tts_ex2 including contents;

Tablespace dropped. SQL> host erase c:\oracle\oradata\tkyte816\tts_ex7.dbf Именно так я "сбрасываю" базу данных для тестирования. Я переношу первоначальную тестовую базу данных перед тестированием, а когда необходимо сбросить изменения, удаляю существующие табличные пространства и снова присоединяю первоначальную базу данных. Переносимые табличные пространства можно также использовать для ручного восстановления табличного пространства на определенный момент времени. Предположим, вы случайно удалили таблицу. Можно восстановить табличные пространства SYSTEM, ROLLBACK и затронутое табличное пространство на другой машине. Эта мини-база дан Импорт и экспорт ных восстанавливается на момент времени, непосредственно предшествующий ошибочному удалению таблицы. Теперь можно перенести табличное пространство, содержащее эту таблицу, в другую базу данных и снова присоединить его. Такой же эффект дает диспетчер восстановления (RMAN) при восстановлении табличного пространства по состоянию на определенный момент времени. Если вы не используете RMAN, можете выполнить эту операцию самостоятельно. Еще одна возможность применения переноса связана с совместным использованием больших объемов только читаемых (или минимально изменяющихся) данных двумя экземплярами на одной машине. Можно создать большое табличное пространство, перевести его в режим "только для чтения", экспортировать метаданные, а затем импортировать в другой экземпляр. Получаем две базы данных с доступом только для чтения к одному и тому же набору файлов. Если в дальнейшем понадобится изменить информацию, необходимо будет выполнить следующие действия: • удалить табличное пространство (включая содержимое) в базе данных, к которой присоединялись файлы данных;

• перевести табличное пространство в режим чтения и записи в исходной базе данных;

• выполнить необходимые изменения;

• перевести табличное пространство в режим "только для чтения";

• экспортировать метаданные и снова импортировать их в другую базу данных. Если табличное пространство используется несколькими базами данных, оно должно быть доступно в режиме "только для чтения".

Получение операторов ЯОД Утилиту ЕХР можно использовать для получения большей части операторов ЯОД, формирующих базу данных. Это уже было продемонстрировано в главе 6, где я использовал ЕХР и IMP для получения детального оператора CREATE TABLE. Есть два способа получить операторы ЯОД: S H O W = Y и INDEXFILE = имя_файла. Я всегда рекомендую использовать параметр INDEXFILE, а не SHOW=Y. Последний параметр предназначен для отображения действий утилиты ЕХР при реальном экспортировании. Формат выдаваемых результатов такой, что в исходном виде они бесполезны: зачастую в самых неподходящих местах операторы ЯОД переносятся на следующую строку и вставляются двойные кавычки. Кроме того, нет четкого разделения команд. Параметр SHOW = Y хорошо подходит как последнее средство восстановления хотя бы части операторов ЯОД, если другие способы недоступны. Ниже мы сравним результаты использования этих параметров, и вы поймете, почему надо использовать INDEXFILE. Задав параметр INDEXFILE, можно воссоздать в файле сценария большую часть операторов ЯОД, формирующих схему. Например, если начать так:

tkyte@TKYTE816> create table tl (x int primary key, у int) ;

Table created.

Глава tkyte@TKYTE816> create table t2 (coll int references tl, col2 int check (col2>0));

Table created. tkyte@TKYTE816> create index t2_idx on t2(col2,coll);

Index created. tkyte@TKYTE816> create trigger t2_trigger before insert or update of coll, col2 on t2 for each row 2 begin 3 if (:new.coll < :new.col2) then 4 raise_application_error(-20001, 5 'Invalid Operation Coll cannot be less then Col2') ;

6 end if;

7 end;

8/ Trigger created. tkyte@TKYTE816> create view v 2 as 3 select tl.y tl_y, t2.col2 t2_col2 from tl, t2 where tl.x = t2.coll 4/ View created.

To можно затем запустить ЕХР и IMP:

С:\>exp userid=tkyte/tkyte owner=tkyte С:\>imp userid=tkyte/tkyte full=y indexfile=tkyte.sql В файле tkyte.sql будет:

REM CREATE TABLE "TKYTE"."Tl" ("X" NUMBER(*,0), "Y" NUMBER(*,0)) PCTFREE REM 10 PCTUSED 40 INITRANS 1 MAXTRANS 255 LOGGING STORAGE(INITIAL 524288) REM TABLESPACE "DATA" ;

REM... 0 rows REM ALTER TABLE "TKYTE". "Tl" ADD PRIMARY KEY ("X") USING INDEX PCTFREE 10 REM INITRANS 2 MAXTRANS 255 STORAGE (INITIAL 524288) TABLESPACE "DATA" REM ENABLE ;

REM CREATE TABLE "TKYTE"."T2" ("COL1" NUMBER(*,0), "COL2" NUMBER(*,0)) REM PCTFREE 10 PCTUSED 40 INITRANS 1 MAXTRANS 255 LOGGING STORAGE (INITIAL REM 524288) TABLESPACE "DATA" ;

REM... 0 rows CONNECT TKYTE;

CREATE INDEX "TKYTE". "T2_IDX" ON "T2" ("COL2", "COL1" ) PCTFREE 10 INITRANS 2 MAXTRANS 255 STORAGE(INITIAL 524288) TABLESPACE "DATA" LOGGING ;

REM ALTER TABLE "TKYTE". "T2" ADD CHECK (col2>0) ENABLE ;

REM ALTER TABLE "TKYTE". "T2" ADD FOREIGN KEY ("COL1") REFERENCES "Tl" REM ("X") ENABLE ;

Удалив операторы REM, получим операторы ЯОД для создания объектов, занимающих место на диске, но не для триггера или представления (не будет также процедур, пакетов и т.д.). Утилита ЕХР экспортирует эти объекты, но утилита IMP их не показывает при задании параметра INDEXFILE. Один из способов заставить утилиту IMP показать их — задать параметр SHOW:

Импорт и экспорт C:\ImpExp> imp userid=tkyte/tkyte show=y full=y Import: Release 8.1.6.0.0 - Production on Mon Apr 23 15:48:43 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved. Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 — Production With the Partitioning option JServer Release 8.1.6.0.0 — Production Export file created by EXPORT:V08.01.06 via conventional path import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set. importing TKYTE's objects into TKYTE "CREATE TABLE "Tl" ("X" NUMBER(*,0), "Y" NUMBER(*,0)) PCTFREE 10 PCTUSED 40" " INITRANS 1 MAXTRANS 255 LOGGING STORAGE (INITIAL 524288) TABLESPACE "DATA"".. skipping table "Tl" "CREATE TABLE "T2" ("COL1" NUMBER(*,0), "COL2" NUMBER(*,0)) PCTFREE 10 PCTU" "SED 40 INITRANS 1 MAXTRANS 255 LOGGING STORAGE(INITIAL 524288) TABLESPACE "" "DATA" ".. skipping table "T2" "CREATE INDEX "T2_IDX" ON "T2" ("COL2", "COL1" ) PCTFREE 10 INITRANS 2 MAX" "TRANS 255 STORAGE (INITIAL 524288) TABLESPACE "DATA" LOGGING" "CREATE FORCE VIEW "TKYTE". "V" ("T1_Y", "T2_COL2") " "AS " "select tl.y tl_y, t2.col2 t2_col2 from tl, t2 where tl.x = t2.coll" "CREATE TRIGGER "TKYTE".t2_trigger before insert or update of coll, col2 on " "t2 for each row" "begin" " if (:new.coll < :new.col2) then" " raise_application_error(-20001,'Invalid Operation Coll cannot be le" "ss then Col2');

" " end if;

" "end;

" "ALTER TRIGGER "T2_TRIGGER" ENABLE" Import terminated successfully without warnings.

Обратите внимание: результат абсолютно не подходит для обычного использования. Например, рассмотрим фрагмент:

"CREATE TABLE "T2" ("COL1" NUMBER(*,0), "COL2" NUMBER(*,0)) PCTFREE 10 PCTU" "SED 40 INITRANS 1 MAXTRANS 255 LOGGING STORAGE(INITIAL 524288) TABLESPACE "" Утилита IMP разрывает строки в произвольных местах — слово PCTUSED разбито на части. Кроме того, каждая строка начинается и завершается двойной кавычкой. Удаление этих кавычек еще не сделает файл сценария применимым, поскольку команды разбиты на строки в произвольных местах. Более того, сам исходный код также "поврежден":

" if ( :new.coll < :new.col2 ) then" " raise_application_error(-20001,'Invalid Operation Coll cannot be le" "ss then C o l 2 ' ) ;

" " end if;

" Глава Утилита IMP вставила символ перевода строки прямо в середину строки кода, в строковый литерал. Наконец, сами команды никак не разделены:

"CREATE INDEX "T2_IDX" ON "T2" ("COL2", "COL1") PCTFREE 10 INITRANS 2 MAX" "TRANS 255 STORAGE (INITIAL 524288) TABLESPACE "DATA" LOGGING" "CREATE FORCE VIEW "TKYTE"."V" ("T1_Y", "T2_COL2") " "AS " "select tl.y tl_y, t2.col2 t2_col2 from tl, t2 where tl.x = t2.coll" "CREATE TRIGGER "TKYTE".t2_trigger before insert or update of coll, col2 on " "t2 for each row" Команда CREATE INDEX "плавно" переходит в CREATE VIEW, а та, в свою очередь, — в CREATE TRIGGER и так далее (надеюсь, вы поняли!). Чтобы использовать этот файл, его надо тщательно редактировать. Но, мы получили недостающее: хотя формат и не подходит для непосредственного выполнения, все можно восстановить. Такой файл может пригодиться в том случае, если вы случайно удалили весь созданный за последний месяц код и хотите его восстановить. Вот почему я регулярно экспортирую свою базу данных дважды в неделю и применяю к результатам IMP...SHOW = Y (как было показано в разделе "Экспортирование больших объемов данных"). Неоднократно мне удавалось восстановить для клиентов достаточно актуальную копию кода по результатам выполнения этой команды. Это избавляло от необходимости восстанавливать для получения кода всю базу данных на определенный момент времени. (Это был еще один альтернативный вариант: данные в базе никогда не теряются!) Преодоление ограничений с помощью сценариев Если мне необходимо перенести из одной схемы в другую код PL/SQL, я предпочитаю использовать сценарии. У меня есть сценарий для получения исходных текстов пакета, процедуры или функции. Другой сценарий предназначен для извлечения представлений. Еще один позволяет получить исходный текст триггера. Перенос таких объектов — не лучший способ использования утилит EXP/IMP. Переносите с помощью ЕХР/ IMP таблицу — и все будет отлично. Попробуйте с помощью EXP/IMP извлечь несколько определений таких объектов, и все станет менее радужным. Поскольку эти сценарии весьма полезны, я представил их здесь, в главе, посвященной ЕХР. Возможно, читая этот раздел, вы пытались найти способ получения исходного кода с помощью утилиты IMP. Теперь вы знаете, что IMP не позволяет получить его в удобочитаемом виде. Итак, вот сценарий, извлекающий исходный код любого пакета (в том числе тела пакета), функции или процедуры и записывающий его в одноименный файл SQL. Если выполнить команду SQL> @getcode my_procedure, этот сценарий создаст файл my_procedure.sql, содержащий соответствующую подпрограмму PL/SQL:

REM set set set set getcode.sql — выбирает любую процедуру, функцию или пакет feedback off heading off termout off linesize Импорт и экспорт set trimspool on set verify off spool &1..sql prompt set define off select decode(type ||'-'||to_char(line,' fm99999'), 'PACKAGE BODY-1', '/'||chr(10), null) || decode(line,1,'create or replace ', '') || text text from user_source where name = upper('&&1') order by type, line;

prompt / prompt set define on spool off set feedback on set heading on set termout on set linesize Для тех, кто хотел бы получить весь код из схемы, я предлагаю сценарий getallcode.sql. Сначала он создаст по файлу для каждого хранимого объекта PL/SQL в текущем каталоге, а затем — сценарий getallcode_INSTALL, который будет автоматически устанавливать весь этот код в другой схеме:

set termout off set heading off set feedback off set linesize 50 spool xtmpx.sql select '@getcode ' || object name from user_objects where object_type in ('PROCEDURE', 'FUNCTION', 'PACKAGE') / spool off spool getallcode_INSTALL.sql select '@' || object_name from user_objects where object_type in ('PROCEDURE', 'FUNCTION', 'PACKAGE') / spool off set heading on set feedback on set linesize 130 set termout on @xtmpx.sql Следующий сценарий позволяет выбрать код одного представления. Если выполнить команду SQL> @getaview view_name, он создаст в текущем каталоге файл view_name.sql, содержащий оператор CREATE VIEW:

REM set set set set set set set set Глава 8 getaview.sql heading off long 99999999 feedback off linesize 1000 trimspool on verify off termout off embedded on column column_name format Al000 column text format Al000 spool &1..sql prompt create or replace view 41 ( select decode (column_id,l,'',',') || column_name from user_tab_colunms where table_name = upper('&1') order by column_id / prompt ) as select text from user_views where view_name = upper('&1') / prompt / spool off set set set set termout on heading on feedback on verify on column_name Конечно, если необходимо получить все представления, можно использовать CL рий getallviews:

set set set set set set set heading off feedback off linesize 1000 trimspool on verify off termout off embedded on spool tmp.sql select '@getaview ' || view_name from user_views / spool off set termout on set heading on set feedback on set verify on @tmp Импорт и экспорт Наконец, имеется сценарий gettrig.sql. Он обрабатывает не все триггеры. Например, я не извлекаю конструкцию referencing OLD as..., поскольку никогда ее не использую. Идея — та же, что и в представленных ранее сценариях;

этот сценарий очень легко изменить, если необходимо использовать корреляционные имена:

set echo off set verify off set feedback off set termout off set heading off set pagesize 0 set long 99999999 spool &1..sql select 'create or replace trigger " ' || trigger_name || '"' || chr(10)|| decode(substr(trigger_type, 1, 1), 'A', 'AFTER', 'B', 'BEFORE', 'I', 'INSTEAD OF') chr(10) || triggering_event || chr (10) || 'ON "' || table_owner || '"."' || table_name || "" || chr(10) || decode(instr( trigger_type, 'EACH R O W ), 0, null, 'FOR EACH R O W ) || chr(10), trigger_body from user_triggers where trigger_name = upper('&1') / prompt / spool off set verify on set feedback on set termout on set heading on || Итак, мы показали, как с помощью утилит EXP/IMP получать операторы ЯОД для таблиц и индексов, занимающих определенное место на диске. Для объектов, много места не занимающих, в том числе триггеров, хранимых процедур, представлений, последовательностей, синонимов и т.д., больше подходят простые сценарии SQL*Plus. Утилиту IMP с параметром S H O W = Y можно использовать как последнее средство спасения, но если получать код требуется постоянно, лучше использовать сценарий.

Резервное копирование и восстановление Утилиты ЕХР и IMP не следует использовать для резервного копирования и восстановления. Реальные резервные копии позволяет создавать только утилита RMAN и операционная система. Утилиты EXP/IMP не стоит использовать как средства резервного копирования по следующим причинам.

Глава • Они, в лучшем случае, позволяют восстановить базу данных на определенный момент времени. При задании параметра CONSISTENT = Y можно получить моментальный снимок базы данных (помните, однако, что вероятность получить сообщение об ошибке ORA-01555 snapshot too old тем больше, чем длиннее транзакция), но не более того. Повторяю: это — снимок на определенный момент времени. Если использовать результат такого экспорта для восстановления, будут потеряны все изменения, произошедшие после запуска ЕХР. Кроме того, к результатам работы IMP нельзя применить архивные журналы повторного выполнения. • Восстановление базы данных сколько-нибудь существенного размера с помощью утилиты IMP происходит медленно;

будут вставляться все данные (через SQL-машину, с генерацией соответствующих объемов данных отката и повторного выполнения), все индексы придется перестраивать, все ограничения — проверять, весь код — компилировать и так далее. То, что при реальном восстановлении занимает минуты, потребует многих часов и даже дней при использовании утилиты IMP.

• Инкрементное экспортирование и импортирование с помощью EXP/IMP скоро перестанет поддерживаться. Использование параметра INCTYPE = будет запрещено. Вот вам цитата из документации Oracle: "Важно: Возможности инкрементного, кумулятивного и полного экспортирования — избыточны и будут убраны в следующих версиях. Необходимо уже сейчас переходить к использованию для резервного копирования баз данных диспетчера резервного копирования и восстановления Oracle ". Подробнее см. в руководстве "Oracle8i Operating System Backup and Recovery Guide".

Означает ли это, что утилиты EXP/IMP становятся бесполезными в общесистемной стратегии резервного копирования и восстановления? Я, например, считаю, что они могут играть важную роль в общесистемной стратегии резервного копирования и восстановления. Производственная база данных должна работать в режиме архивирования журналов, чтобы обеспечить возможность восстановления "на момент времени" и восстановления носителей (т.е. восстановления после сбоя диска). Это принципиально важно, и альтернативы этому нет. Кроме того, определенное профилактическое выявление сбоев тоже важно в продуманной стратегии резервного копирования и восстановления. Именно для этого я и использую утилиту ЕХР, как уже упоминал ранее. При этом полностью проверяется словарь данных, используются практически все его индексы и объекты, что гарантирует целостность. В процессе экспортирования прочитываются все данные таблиц, что позволяет проверить их доступность (если индекс будет поврежден, его легко восстановить, поэтому я не беспокоюсь об их тестировании). Полученный файл DMP может также пригодиться для извлечения потерянных фрагментов кода или случайно удаленной таблицы, что во многих случаях позволяет избежать восстановления на определенный момент времени.

Импорт и экспорт Есть и другие средства, такие как DBV (средство проверки базы данных), которые также можно периодически применять к файлам данных, чтобы обеспечить физическую целостность данных, в том числе индексных структур, не обрабатываемых утилитой ЕХР.

Утилиты IMP/EXP (уже) не являются средствами реорганизации В прошлом утилиты экспорта и импорта использовались в основном в этих целях. Для того чтобы дефрагментировать табличное пространство, администратору базы данных приходилось сначала экспортировать набор объектов, затем удалить их и после этого импортировать. Администраторы базы данных тратили много времени на регулярное выполнение такой процедуры. Хотя на самом деле не требовалось делать это больше одного раза, а в большинстве случаев — вообще не нужно. Одноразового выполнения этой процедуры было достаточно, чтобы продумать более эффективную организацию хранения, позволяющую избежать фрагментации. В большинстве случаев, однако, никто ничего не менял, и история неизбежно повторялась. В некоторых случаях это делали, поскольку слышали, что "это необходимо", хотя в их случае этого можно было избежать. Более того, подобное использование утилит EXP/IMP было небезопасно. Вы берете все данные из базы данных, удаляете их, а затем снова вставляете. Определенный промежуток времени данные не защищаются СУБД. Есть опасность, что утилита IMP не сработает (это ведь просто программа). Есть также опасность изменения данных при экспортировании (эти изменения в файл экспорта не попадут) и потери этих изменений. Можно потерять права доступа к объектам и т.д. Все это требует серьезного планирования и приостановки работы на длительное время. В Oracle8i нет необходимости использовать утилиты ЕХР/IМР для реорганизации данных. Если вы действительно думаете, что это нужно (а я свято верю, что делать это надо не более одного раза для исправления неудачной реализации), то можно использовать оператор ALTER TABLE MOVE для переноса таблиц из одного табличного пространства в другое. В ходе такой реорганизации таблица будет доступна для запросов, но не для изменений. Сразу же после переноса индексы становятся недействительными и надо их пересоздать, так что на это время производительность запросов снизится. Но время простоя будет существенно меньше, чем при использовании утилит EXP/IMP, причем ни одной из перечисленных выше проблем не возникает;

данные все время защищены СУБД, нет угрозы потери или изменения данных, процесс не затрагивает привилегии и т.д. В заключение еще раз подчеркну: дни EXP/IMP как средства реорганизации данных сочтены. Даже не пытайтесь использовать их для этой цели.

Импортирование в другие структуры Такая необходимость возникает достаточно часто. Как, например, файл экспорта с данными импортировать в отличную структуру? Я часто сталкивался с такой пробле Глава мой, когда данные из версии 1 некоего программного пакета требовалось загрузить в базу данных, где установлена версия 2 (или наоборот). Ответ — да, но для этого потребуются определенные усилия. Рассмотрим три случая: • в таблицу добавлен столбец (никаких дополнительных усилий не надо — сервер Oracle поместит в столбец пустые или заданные стандартные значения);

• из таблицы удален столбец (кое-что придется сделать);

• изменен тип данных столбца (опять-таки, придется кое-что сделать). В случае появления дополнительного столбца делать ничего не надо. Сервер Oracle выполнит вставку в таблицу как обычно, используя пустые значения или указанное при добавлении столбца стандартное значение. При удалении или изменении столбцов придется импортировать данные в представление, используя триггер INSTEAD OF для их сопоставления. Учтите, что использование триггера INSTEAD OF приводит к дополнительным затратам ресурсов;

загружать с его помощью можно небольшие объемы данных, но десятки миллионов строк — не стоит. Рассмотрим пример со следующими таблицами:

tkyte@TKYTE816> create table added_a_column (x int) ;

Table created. tkyte@TKYTE816> create table dropped_a_column (x int, у int);

Table created. tkyte@TKYTE816> create table modified_a_column(x int, у int);

Table created. tkyte@TKYTE816> insert into added_a_column values (1) ;

1 row created. tkyte@TKYTE816> insert into dropped_a_column values (1, 1) ;

1 row created. tkyte@TKYTE816> insert into modified_a_column values (1, 1) ;

1 row created. tkyte@TKYTE816> commit;

Commit complete.

Начнем с экспортирования этих трех таблиц (команда для этого должна вводиться в одну строку, иначе будет экспортирована вся схема):

tkyte@TKYTE816> host exp userid=tkyte/tkyte tables=(added_a_column,dropped_a_column,modified_a_column) Export: Release 8.1.6.0.0 - Production on Tue Mar 20 09:02:34 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved. Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 - Production With the Partitioning option JServer Release 8.1.6.0.0 - Production Export done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set Импорт и экспорт About to export specified tables via Conventional Path..... exporting table ADDED_A_COLUMN 1 rows exported.. exporting table DROPPED_A_COLUMN 1 rows exported.. exporting table MODIFIED_A_COLOMN 1 rows exported Export terminated successfully without warnings.

Итак, создан тестовый пример. Мы экспортировали три таблицы "как они есть". Теперь давайте их изменим:

tkyte@TKYTE816> alter table added_a_colunn add (у int) ;

Table altered. tkyte@TKYTE816> alter table dropped_a_column drop column y;

Table altered. tkyte@TKYTE816> delete from modified_a_column;

1 row deleted. tkyte@TKYTE816> alter table modified_a_column modify у date;

Table altered.

Теперь, если попытаться импортировать данные, с таблицей ADDED_A_COLUMN все получится, а вот с остальными — нет:

tkyte@TKYTE816> host imp userid=tkyte/tkyte full=y ignore=y Import: Release 8.1.6.0.0 - Production on Tue Mar 20 09:02:34 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved. Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 - Production With the Partitioning option JServer Release 8.1.6.0.0 — Production Export file created by EXPORT:V08.01.06 via conventional path import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set. importing TKYTE's objects into TKYTE.. importing table "ADDED_A_COLUMN" 1 rows imported.. importing table "DROPPED_A_COLUMN" IMP-00058: ORACLE error 904 encountered ORA-00904: invalid column name.. importing table "MODIFIED_A_COLUMN" IMP-00058: ORACLE error 932 encountered ORA-00932: inconsistent datatypes Import terminated successfully with warnings.

Следующий шаг — создать представления в базе данных, аналогичные исходным таблицам. Для этого: • переименуем таблицы на время импортирования;

• создадим представления, выбирающие константы нужного типа;

например, SELECT 1 - для чисел, SELECT SYSDATE - для дат, SELECT RPAD('*', 30, '*') - для VARCHAR2(30) и так далее;

Глава • создадим триггер INSTEAD OF, который будет выполнять все необходимые действия (преобразование/сопоставление данных). Вот код для этого:

tkyte@TKYTE816> rename modified_a_column to modified_a_column_TEMP;

Table renamed. tkyte@TKYTE816> create or replace view modified_a_column 2 as 3 select 1 x, 1 у from modified_a_column_TEMP;

View created. tkyte@TKYTE816> create or replace trigger modified_a_column_IOI 2 instead of insert on modified_a_column 3 begin 4 insert into modified_a_column_TEMP 5 (x, y) 6 values 7 (:new.x, to_date('01012001','ddmmyyyy')+:new.y);

8 end;

9 / Trigger created.

Здесь мы преобразуем данные типа NUMBER, хранящиеся в столбце Y, в смещение от 1 января 2001 года. Выполните необходимые преобразования: из STRING — в DATE, из DATE — в NUMBER, из NUMBER — в STRING и так далее. Теперь позаботимся об удаленном столбце:

tkyte@TKYTE816> rename dropped_a_column to dropped_a_column_TEMP;

Table renamed. tkyte@TKYTE816> create or replace view dropped_a_column 2 as 3 select 1 x, 1 у from dropped a_column_TEMP;

View created. tkyte@TKYTE816> create or replace trigger dropped_a_column_IOI 2 instead of insert on dropped_a_column 3 begin 4 insert into dropped_a_column_TEMP 5 (x) 6 values 7 (:new.x);

8 end;

9 / Trigger created.

Здесь мы избавились от столбца :new.y. Мы ничего с ним не делаем, просто игнорируем. Он должен быть в представлении, куда бы утилита IMP могла вставлять данные. Теперь все готово для повторного импортирования:

tkyte@TKYTE816> host imp userid=tkyte/tkyte full=y ignore=y Import: Release 8.1.6.0.0 - Production on Tue Mar 20 09:21:41 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

Импорт и экспорт Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 - Production With the Partitioning option JServer Release 8.1.6.0.0 - Production Export file created by EXPORT:V08.01.06 via conventional path import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set. importing TKYTE's objects into TKYTE... importing table "ADDED_A_COLOMN" 1 rows imported.. importing table "DROPPED_A_COLDMN" 1 rows imported.. importing table "MODIFIKD_A_COLUMN" 1 rows imported Import terminated successfully without warnings. Импортирование выполняется без ошибок. Теперь необходимо удалить представления и переименовать таблицы: tkyte@TKYTE816> drop view modified_a_column;

View dropped. tkyte@TKYTE816> drop view dropped_a_column;

view dropped. tkyte@TKYTE816> rename dropped_a_column_TEMP to dropped_a_column;

Table renamed. tkyte@TKYTE816> rename modified_a_column_TEMP to modified_a_column;

Table renamed. Анализируя данные, мы увидим следующее: • три строки в таблице added_a_column — одна исходная и две импортированные;

• две строки в таблице dropped_a_column — результат исходной вставки и одного успешного импорта;

• одна строка в таблице modified_a_column, поскольку перед изменением типа столбца пришлось все строки из этой таблицы удалить. А вот что мы получаем: tkyte@TKYTE816> select * from added_a_column;

X 1 1 1 tkyte@TKYTE816> select * from dropped_a_column;

X 1 1 tkyte@TKYTE816> select * from modified_a_column;

XY 1 02-JAN-01 Y Глава Непосредственный экспорт Непосредственный экспорт нельзя считать операцией, обратной непосредственной загрузке с помощью SQLLDR (см. главу 9). При непосредственном экспорте данные не читаются напрямую из файлов данных перед записью в DAT-файлы. Экспортирование в непосредственном режиме позволяет миновать буфер обработки SQL (избежать обработки конструкции WHERE, форматирования столбцов и т.д.). Девяносто процентов пути, проходимого данными, — те же. Утилита ЕХР так же считывает блоки в буферный кэш, обеспечивает согласованность по чтению и т.д. Тем не менее ускорение при использовании непосредственного экспорта может оказаться существенным. Сокращение обработки всего на десять процентов оборачивается значительным сокращением времени выполнения. Например, я только что экспортировал около 100 Мбайт данных (1,2 миллиона записей). Непосредственный экспорт занял около минуты. Обычное же экспортирование продолжалось три минуты. К сожалению, соответствующего "непосредственного импорта" нет. При импортировании для вставки данных в таблицы используются обычные операторы SQL. Для высокопроизводительной загрузки данных по-прежнему приходится использовать SQLLDR. Следует заметить, что в режиме непосредственного экспорта нельзя использовать параметр QUERY = для выбора подмножества строк. В этом есть смысл, если учесть, что DIRECT = Y — это просто способ обойти буфер обработки SQL, а ведь именно в нем обычно и обрабатывается конструкция WHERE.

Проблемы и ошибки В этом разделе я хочу описать ряд проблем, с которыми часто сталкиваются при использовании утилит EXP/IMP. Мы рассмотрим: • использование утилит EXP/IMP для "клонирования" схемы;

• использование утилит EXP/IMP в различных версиях Oracle;

• "исчезновение" индексов;

• влияние требований, имена которых сгенерированны системой;

• проблемы, связанные с поддержкой национальных языков (National Language S u p p o r t - NLS);

• проблемы, возникающие при использовании объектов, ссылающихся на имена нескольких табличных пространств, например таблиц со столбцами типа больших двоичных объектов.

Клонирование Это стандартное использование утилит EXP/IMP;

для этого нужно скопировать всю схему приложения. Необходимо скопировать все таблицы, триггеры, представления, процедуры и т.д. Как правило, это замечательно получается с помощью следующих команд:

Импорт и экспорт Exp userid=tkyte/tkyte owner=old_user Imp userid=tkyte/tkyte fromuser=old_user touser=new_user Неприятности, однако, возникают, когда в копируемой схеме приложения используются ссылки на ее же объекты, уточненные именем схемы. Я имею в виду, что в пользовательской схеме А имеется такой, например, код:

create trigger MY_trigger before insert on A.table name begin end;

/ Здесь явно создается триггер для таблицы A.TABLE_NAME. Если экспортировать такой триггер и импортировать его в другую схему, он останется связанным с таблицей A.TABLE_NAME, а не с таблицей по имени TABLE_NAME в новой схеме. Утилиты EXP/IMP, однако, работают в этом случае по-разному:

tkyte@TKYTE816> create table tl 2 (x int primary key);

Table created. tkyte@TKYTE816> create table t4 (y int references TKYTE.tl);

Table created. tkyte@TKYTE816> create trigger t2_trigger 2 before insert on TKYTE.ti 3 begin 4 null;

5 end;

6/ Trigger created. tkyte8TKYTE816> create or replace view v 2 as 3 select * from TKYTE.tl;

View created.

Имеется декларативное требование целостности, явно ссылающееся на таблицу TKYTE.T1, триггер по явно заданной таблице TKYTE.T4 и представление, явно ссылающееся на TKYTE.T1. Давайте экспортируем эту схему и создадим пользователя, в схему которого будет выполняться импорт (учтите, что пользователю, выполняющему импорт с параметрами FROMUSER и TOUSER, необходимо предоставить роль IMP_FULL_DATABASE):

tkyte@TKYTE816> host exp userid=tkyte/tkyte owner=tkyte tkyte@TKYTE816> grant connect, resource to a identified by a;

Grant succeeded. tkyte@TKYTE816> host imp userid=system/change_on_install fromuser=tkyte touser=a Глава Import: Release 8.1.6.0.0 - Production on Tue Mar 20 09:56:17 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 - Production With the Partitioning option JServer Release 8.1.6.0.0 - Production Export file created by EXPORT:V08.01.06 via conventional path Warning: the objects were exported by TKYTE, not by you import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set. importing TKYTE's objects into A.. importing table "T1" 0 rows imported.. importing table "T4" 0 rows imported IMP-00041: Warning: object created with compilation warnings "CREATE FORCE VIEW "A". "V" ("X") AS " "select "X" from TKYTE.tl" Import terminated successfully with warnings.

Теперь уже видно, что с представлением у нас проблема: оно явно ссылается на таблицу TKYTE.T1;

пользователь А не может создать представление для этого объекта, поскольку у него нет соответствующих привилегий. К счастью, утилита IMP явно сообщает, что представление создано с ошибкой. Менее понятно, что случилось с декларативным требованием целостности и триггером. Если обратиться к словарю данных, подключившись от имени пользователя А, получим:

a@TKYTE816> select table_name, constraint_name, 2 constraint_type, r_constraint_name 3 from user_constraints 4 / TABLE_NAME Tl T4 CONSTRAINT_NAME SYS_C002465 SYS_C002466 С P R R_CONSTRAINT_NAME SYS_C a@TKYTE816> select trigger_name, table_owner, table_name 2 from user_triggers 3 / TRIGGER_NAME T2_TRIGGER TABLE_OWNER TKYTE TABLE_NAME T Удивительно, но декларативное требование целостности ссылается на таблицу пользователя А. Буква R в имени означает ссылку, а требование, на которое она указывает, SYS_C002465, — это первичный ключ таблицы Т1 в схеме пользователя А. При наличии в схеме TKYTE уточненного требования целостности ссылок, указывающего на таблицу В.Т (таблица Т пользователя В), это требование тоже будет импортировано в схе Импорт и экспорт му пользователя А как указывающее на таблицу А.Т. Если уточненное именем схемы имя таблицы, на которую мы ссылаемся, совпадает с именем владельца в момент экспортирования, утилита ЕХР это имя не сохранит. Сравните это с тем, как экспортирован триггер. Триггер T2_TRIGGER создается не по таблице пользователя А — он создается для таблицы пользователя TKYTE! Это потенциально опасный побочный эффект. Если продублировать триггер по таблице TKYTE.T4, его тело будет выполнено дважды, а для таблицы А.Т4 триггера вообще не будет. Настоятельно рекомендую учитывать все это при использовании утилит EXP/IMP для клонирования пользователя. Помните об этих побочных эффектах и ищите их. Выполнив приведенные ниже команды, можно просмотреть все операторы ЯОД, триггеры, процедуры и т.д., прежде чем выполнять их в базе данных:

imp userid=sys/manager fromuser=tkyte touser=a INDEXFILE=foo.sql imp userid=sys/manager fromuser=tkyte touser=a SHOW=Y В крайнем случае попробуйте выполнить импорт в базу данных, где нет учетной записи пользователя FROMUSER. Например, ниже выполняется импорт в базу данных, где имеется пользователь А, но пользователя TKYTE нет:

C:\exp>imp userid=sys/manager Import: (c) Release 8.1.6.0.0 fromuser=tkyte touser=a - Production on Tue Mar 20 10:29:37 2001 All rights reserved. - Production Copyright 1999 Oracle Corporation. Oracle8i Connected to:

Enterprise Edition Release 8.1.6.0. With the Partitioning option JServer Release 8.1.6.0.0 Export Production file created by EXPORT:V08.01.06 via conventional path the objects were exported by TKYTE, not by you Warning:

import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set. importing TKYTE's objects into A.. importing table "T1" 0 rows imported.. importing table "T4" 0 rows imported.. importing table "T5" 0 rows imported IMP-00041: Warning: object created with compilation warnings "CREATE FORCE VIEW "A". "V" ("X") AS " "select "X" from TKYTE.tl" IMP-00017: following statement failed with ORACLE error 942: "CREATE TRIGGER "A".t2_trigger" "before insert on TKYTE.t4" "begin" null;

" "end;

" IMP-00003: ORACLE error 942 encountered ORA-00942: table or view does not exist Import terminated successfully with warnings.

Глава Так можно выяснить наличие подобных побочных эффектов немедленно. Настоятельно рекомендую использовать такой подход для поиска объектов, использующих уточненные схемой имена, и проверки корректности их импортирования. Несколько иная проблема возникает при импортировании и экспортировании объектных типов Oracle. СУБД Oracle позволяет создавать в базе данных новые типы данных. Можно добавлять типы, равноправные со стандартными NUMBER, DATE, VARCHAR2.... Затем можно создавать таблицы таких типов или таблицы со столбцами таких типов. Поэтому обычный порядок действий — создать схему, затем — типы данных в схеме и, наконец, — объекты, использующие эти типы;

причем все это делается от имени одного пользователя. Однако при "клонировании" такой схемы вы столкнетесь с серьезной проблемой. Я продемонстрирую эту проблему, укажу причины ее возникновения и предложу возможное решение. Начнем со схемы следующего вида:

tkyte@TKYTE816> create type my type 2 as object 3 (x int, 4 у date, 5 z varchar2(20) 6) 7/ Type created. tkyte@TKYTE816> create table tl of my_type 2 / Table created. tkyte@TKYTE816> create table t2 (a int, b my_type);

Table created. tkyte@TKYTE816> insert into tl values (1, sysdate, 'hello');

1 row created. tkyte@TKYTE816> insert into t2 values (55, my_type(l, sysdate, 'hello'));

1 row created. tkyte@TKYTE816> commit;

Commit complete. tkyte@TKYTE816> host exp userid=tkyte/tkyte owner=tkyte Мы получили копию схемы. Попытавшись теперь использовать параметры FROMUSER/ TOUSER, можно обнаружить следующее:

tkyte@TKYTE816> host imp userid=sys/manager fromuser=tkyte touser=a;

Import: Release 8.1.6.0.0 - Production on Tue Mar 20 12:44:26 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 - Production With the Partitioning option JServer Release 8.1.6.0.0 - Production Импорт и экспорт Export file created by EXPORT:V08.01.06 via conventional path Warning: the objects were exported by TKYTE, not by you import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set. importing TKYTE's objects into A IMP-00017: following statement failed with ORACLE error 2304: "CREATE TYPE "MY_TYPE" TIMESTAMP '2001-03-20:12:44:21' OID "4A301F5AABF04A46" "88552E4AF5793176" "as object" "(x int," " у date," " z varchar2(20) " ")" IMP-00003: ORACLE error 2304 encountered ORA-02304: invalid object identifier literal IMP-00063: Warning: Skipping table "A"."T1" because object type "A"."MY_TYPE" cannot be created or has different identifier IMP-00063: Warning: Skipping table "A"."T2" because object type "A"."MY_TYPE" cannot be created or has different identifier Import terminated successfully with warnings.

В этот момент все останавливается. Мы не можем создать тип в пользовательской схеме А, а если бы у нас это и получилось, — это будет другой тип, и импортировать данные мы не сможем. В базе данных будут присутствовать как бы два различных типа NUMBER. В примере выше мы создаем два разных типа MY_TYPE, но работаем с ними, как с одним. Проблема (к сожалению, в документации она никак не отражена) состоит в том, что не надо создавать схему, содержащую как типы, так и объекты, особенно если в дальнейшем планируется экспортировать и импортировать ее подобным образом. Используя принцип создания схем CTXSYS и ORDSYS для компонента Oracle interMedia, надо создать отдельную схему, содержащую типы. Если необходимо использовать interMedia Text, мы пользуемся типами схемы CTXSYS. Если предполагается использовать средства interMedia для работы с изображениями, мы пользуемся типами схемы ORDSYS. В нашем случае надо сделать то же самое, т.е. создать схему, содержащую необходимые типы данных:

our_types@TKYTE816> connect OUR_TYPES our_types@TKYTE816> create type my_type 2 as object 3 (x int, 4 у date, 5 z varchar2(20) 6) 7/ Type created. our_types@TKYTE816> grant all on my_type to public;

Grant succeeded.

Глава Все схемы должны использовать эти типы, а не собственные, которые тесно связаны с их учетной записью. Теперь можно повторно выполнить рассмотренный ранее пример:

tkyte@TKYTE816> connect tkyte tkyte@TKYTE816> create table tl of our_types.my type 2/ Table created. tkyte@TKYTE816> create table t2 (a int, b our_types.my_type);

Table created. tkyte@TKYTE816> insert into tl values (1, sysdate, 'hello');

1 row created. tkyte@TKYTE816> insert into t2 values (55, 2 our_types.my_type(l, sysdate, 'hello'));

1 row created. tkyte@TKYTE816> commit;

Commit complete. tkyte@TKYTE816> host exp userid=tkyte/tkyte owner=tkyte Итак, единственное отличие в том, что мы используем уточненное имя типа, OUR_TYPES.MY_TYPE, а не просто MY_TYPE. Поскольку синонимы для типов создавать нельзя, такое уточнение именем схемы обязательно: необходимо указывать полное имя объекта, включая схему, которой он принадлежит. Именно так мы обязаны делать при использовании типов interMedia (например, объектов CTXSYS и ORDSYS), да и индексов, то есть всегда необходимо указывать уточненные имена. Поэтому тщательно выбирайте имя схемы, содержащей типы, — вам с ним предстоит некоторое время жить! Теперь давайте рассмотрим, как на этот раз пройдет импортирование:

tkyte@TKYTE816> host imp userid=sys/manager fromuser=tkyte touser=a;

Import: Release 8.1.6.0.0 - Production on Tue Mar 20 12:49:33 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved. Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 - Production With the Partitioning option JServer Release 8.1.6.0.0 - Production Export file created by EXPORT:V08.01.06 via conventional path Warning: the objects were exported by TKYTE, not by you import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set. importing TKYTE's objects into A IMP-00017: following statement failed with ORACLE error 2304: "CREATE TABLE "Tl" OF "OUR_TYPES"."MY_TYPE" OID 'AC60D4D90ED1428B84D245357AD" "F2DF3' OIDINDEX (PCTFREE 10 INITRANS 2 MAXTRANS 255 STORAGE(INITIAL 524288)" " TABLESPACE "DATA") PCTFREE 10 PCTUSED 40 INITRANS 1 MAXTRANS 255 LOGGING S" "TORAGE(INITIAL 524288) TABLESPACE "DATA"" Импорт и экспорт IMP-00003: ORACLE error 2304 encountered ORA-02304: invalid object identifier literal.. importing table imported Import terminated successfully with warnings.

1 rows "T2" Уже лучше, но тоже не идеально. Объектную таблицу импортировать не удалось, но реляционная таблица с объектным типом столбца импортирована успешно. Этого следовало ожидать. Объектная таблица теперь формально другая, а для объектов это существенно. Эту проблему можно, однако, обойти, поскольку эти две таблицы фактически созданы по одному и тому же типу. Надо заранее создать объектную таблицу в схеме пользователя А. Можно использовать параметр IMP INDEXFILE= для получения необходимого оператора ЯОД:

a@TKYTE816> host imp userid=a/a tables=tl indexfile=tl.sql Если открыть полученный файл T1.SQL в текстовом редакторе:

REM CREATE TABLE "A"."T1" OF "OUR_TYPES". "MY_TYPE" OID REM 'AC60D4D90ED1428B84D245357ADF2DF3' OIDINDEX (PCTFREE 10 INITRANS 2 REM MAXTRANS 255 STORAGE (INITIAL 524288) TABLESPACE "DATA") PCTFREE 10 REM PCTUSED 40 INITRANS 1 MAXTRANS 255 LOGGING STORAGE (INITIAL 524288) REM TABLESPACE "DATA" ;

REM ALTER TABLE "A"."T1" MODIFY ("SYS_NC_OID$" DEFAULT SYS_OP_GUID()) ;

REM... 1 rows Необходимо удалить слова REM, а также конструкцию OID xxxxx, а затем выполнить:

a@ТКУТЕ816> CREATE TABLE "A"."T1" OF "OUR_TYPES"."MY_TYPE" 2 OIDINDEX (PCTFREE 10 INITRANS 2 3 MAXTRANS 255 STORAGE(INITIAL 524288) TABLESPACE "DATA") PCTFREE 10 4 PCTUSED 40 INITRANS 1 MAXTRANS 255 LOGGING STORAGE (INITIAL 524288) 5 TABLESPACE "DATA" ;

Table created. a@TKYTE816> ALTER TABLE "A". "Tl" MODIFY ("SYS_NC_OID$" DEFAULT SYS_OP_GUID()) ;

Table altered.

Теперь можно выполнить импорт:

a@TKYTE816> host imp userid=a/a tables=tl ignore=y Import: Release 8.1.6.0.0 - Production on Tue Mar 20 13:01:24 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 - Production With the Partitioning option JServer Release 8.1.6.0.0 - Production Export file created by EXPORT:V08.01.06 via conventional path Warning: the objects were exported by TKYTE, not by you Глава import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set. importing TKYTE's objects into A.. importing table "N1" 1 rows imported Import terminated successfully without warnings. a@TKYTE816> select * from tl;

XY 1 20-MAR-01 Z hello и данные загружены.

Использование различных версий утилит IMP/EXP Можно использовать утилиты IMP и ЕХР с разными версиями СУБД Oracle. Можно даже экспортировать и импортировать данные в СУБД версии 7 и 8. Однако при этом нужно использовать подходящие версии утилит ЕХР и IMP. При выборе версии IMP и ЕХР руководствуйтесь следующими правилами: • Всегда используйте версию IMP, соответствующую версии СУБД. Если вы собираетесь импортировать в базу данных версии 8.1.6, это надо делать с помощью утилиты импорта версии 8.1.6. • Всегда используйте версию ЕХР, соответствующую старeuшей из двух версий СУБД. Если вы экспортируете данные из версии 8.1.6 в 8.1.5, необходимо использовать версию 8.1.5 утилиты ЕХР, по протоколу Net8, подключаясь к СУБД версии 8.1.6. Если вы экспортируете из версии 8.1.5 в 8.1.6, необходимо использовать утилиту ЕХР версии 8.1.5, подключаясь к СУБД версии 8.1.5 локально.

Это принципиально важно. Если попытаться экспортировать из версии 8.1.6 в 8.0.5, например, с помощью утилиты ЕХР версии 8.1.6, окажется, что утилита IMP версии 8.0.5 не может прочитать файл DMP. Более того, нельзя использовать версию 8.1.6 утилиты IMP для подключения к СУБД версии 8.0.5;

это не сработает. В базах данных версии 8.1.6 есть возможности и объекты, не существовавшие в 8.0.5. Помня о том, что версию IMP определяет СУБД, в которую данные импортируются, а версия ЕХР должна быть старейшей из двух, всегда можно перенести данные с одной версии на другую. Последнее замечание: если у вас имеются базы данных Oracle 7, в базах данных Oracle 8 нужно выполнить сценарий, чтобы утилита ЕХР версии 7 могла с ними работать. Это сценарий cat7exp.sql, который находится в каталоге [ORACLE_HOME]/rdbms/ admin. Сценарий необходимо выполнять от имени пользователя SYS с помощью утилиты командной строки SVRMGRL. В результате в базе данных версии 8 будут установлены совместимые с версией 7 сценарии экспорта. Они не заменят представления, используемые для экспорта версией 8, — эти представления останутся нетронутыми.

Импорт и экспорт Сценарий просто добавит в базу данных дополнительные представления версии 7, позволяющие работать утилите ЕХР версии 7.

Куда делись индексы?

Логично ожидать, что если экспортирована схема, после чего все объекты в этой схеме удалены, а затем схема импортирована, то должен получиться тот же набор объектов. Да, но могут быть сюрпризы. Рассмотрим следующую простую схему:

tkyte@TKYTE816> create table t 2 (x int, 3 у int, 4 constraint t_pk primary key(x) 5 ) 6 / Table created. tkyte@TKYTE816> create index t_idx on t(x,y) 2 / Index created. tkyte@TKYTE816> create table t2 2 (x int primary key, 3 у int 4 ) 5 / Table created. tkyte@TKYTE816> create index t2_idx on t2(x,y) 2 / Index created.

Две очень похожие таблицы отличаются наличием явного (а не сгенерированного системой) имени первичного ключа. Давайте посмотрим, какие объекты созданы в базе данных:

tkyte@TKYTE816> s e l e c t o b j e c t _ t y p e, object_name, 2 decode(status,'INVALID','*','') 3 tablespace_name 4 from user_objects a, user_segments b 5 where a.object_name = b.segment_name (+) 6 order by object_type, object_name 7 / OBJECT_TYPE INDEX OBJECT_NAME SYS_C002559 T2_IDX T_IDX T_PK T T2 S status, TABLESPACE_NAME DATA DATA DATA DATA DATA DATA TABLE 6 rows selected.

Глава Как видите, для каждого из первичных ключей автоматически сгенерирован индекс — это индексы SYS_C002559 и Т_РК. Мы видим также и два явно создававшихся индекса. После удаления таблиц Т и Т2 я выполнил полный импорт. К моему удивлению, обнаружилось следующее:

tkyte@TKYTE816> select object_type, object_name, 2 decode(status,'INVALID','*',' ') status, 3 tablespace_natne 4 from user_objects a, user_segments b 5 where a.object_name = b.segment_name (+) 6 order by object_type, object_name 7/ OBJECT_TYPE INDEX OBJECT_NAME T2_IDX T_IDX T_PK T T2 S TABLESPACE_NAME DATA DATA DATA DATA DATA TABLE Один из моих индексов "исчез". Дело в том, что сервер Oracle использовал индекс T2_IDX по столбцам (X,Y) для поддержки первичного ключа. Это вполне нормально. Мы и сами можем воспроизвести такое поведение, немного изменив порядок выполнения операторов CREATE (в "чистой" схеме, где еще нет никаких объектов):

tkyte@TKYTE816> create table t (x int, у int) ;

Table created. tkyte@TKYTE816> create index t_idx on t(x,y);

Index created. tkyte@TKYTE816> alter table t add constraint t_pk primary key(x);

Table altered. tkyte@TKYTE816> select object_type, object_name, 2 decode(status,'INVALID','*','') status, 3 tablespace_name 4 from user_objects a, user_segments b 5 where a.object_name = b.segment_name (+) 6 order by object_type, object_name 7/ OBJECT_TYPE INDEX TABLE OBJECT_NAME T_IDX T S TABLESPACE_NAME DATA DATA В этом случае сервер Oracle будет использовать индекс T_IDX для поддержки первичного ключа. Это легко понять, попытавшись удалить индекс:

tkyte@TKYTE816> drop index t_idx;

drop index t_idx Импорт и экспорт ERROR at l i n e 1: ORA-02429: cannot drop index used for enforcement of unique/primary key Что ж, то же самое происходит и в ходе работы утилит EXP/IMP. Определения индексов, имена которых сгенерированы системой, не экспортируются. В противном случае происходили бы ошибки. Утилиты EXP/IMP полагаются на то, что индекс неявно создается при создании объекта (если вообще создается). Если бы действительно был экспортирован индекс SYS_C002559, а затем его попытались бы импортировать, могла бы произойти одна из двух ошибок. Во-первых, сгенерированное имя SYS_C002559 вполне могло бы совпадать с уже существующим автоматически сгенерированным именем (например, именем требования проверки). Во-вторых, при создании объекта индекс мог быть уже создан, то есть наш индекс оказывается лишним (и выдается сообщение об ошибке). Поэтому утилиты ЕХР и IMP работают правильно: вы просто видите побочный эффект того, что при создании требования индекс не обязательно создается. Задавая имя для требования первичного ключа, мы создаем индекс, имя которого совпадает с именем требования;

при каждом создании объекта имя индекса будет неизменным. Утилита ЕХР экспортирует определение этого индекса, a IMP будет его импортировать. Вывод: надо избегать автоматического именования объектов не только по рассмотренной выше причине, но и по причине, описанной в следующем разделе. Не говоря уже о том, что имя SYS_C002559 никому ни о чем не говорит, а имя Т_РК для кого-то вполне может означать "первичный ключ (РК) таблицы Т".

Явно и автоматически именуемые требования Еще одна проблема с автоматически сгенерированными именами требований состоит в том, что при импорте для таблицы может добавляться избыточное требование (я мог бы назвать этот раздел "Откуда взялись все эти ограничения?"). Рассмотрим пример. Начнем с таблицы Т:

tkyte@TKYTE816> create table t 2 (x int check (x > 5), 3 у int constraint my_rule check (y > 10), 4 z int not null, 5 a int unique, 6 b int references t, 7 с int primary key 8 );

Table created. tkyte@TKYTE816> select constraint_name name, constraint_type type, search_condition 2 from user_constraints where table_name = 'T';

NAME SYS_C002S74 SYS C002675 T С С SEARCH_CONDITION "Z" IS NOT NULL x> Глава 8 С P U R у > MY_ROLE SYS_C002677 SYSJC002678 SYS_C002679 6 rows selected.

Для нее создано много требований: шесть. Я экспортирую схему, удаляю таблицу и импортирую снова:

tkyte@TKYTE816> host exp userid=tkyte/tkyte owner=tkyte tkyte@tkyte816> drop table T;

Table dropped. tkyte@TKYTE816> host imp userid=tkyte/tkyte full=y ignore=y rows=n tkyte@TKYTE816> select constraint_name name, constraint_type type, search_condition 2 from user_constraints where table_name = 'T';

NAME SYS_C002680 SYS_C002681 MY_RULE SYS_C002683 SYS_C002684 SYS_C002685 б rows selected. T С С С P U R SEARCH_CONDITION "Z" IS NOT NOLL x>5 у > Пока все выглядит нормально. Предположим, однако, что мы по какой-то причине снова выполняем импорт (например, он частично не удался). При этом мы обнаружим следующее:

tkyte@TKYTE816> host imp userid=tkyte/tkyte full=y ignore=y Import: Release 8.1.6.0.0 - Production on Tue Mar 20 15:42:26 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 - Production With the Partitioning option JServer Release 8.1.6.0.0 - Production Export file created by EXPORT:V08.01.06 via conventional path import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set. importing TKYTE's objects into TKYTE.. importing table "T" 0 rows imported IMP-00017: following statement failed with ORACLE error 2264: "ALTER TABLE "I" ADD CONSTRAINT "MY_RULE" CHECK ( у > 10 ) ENABLE NOVALIDAT" Импорт и экспорт IMP-00003: ORACLE error 2264 encountered ORA-02264: name already used by an existing constraint IMP-00017: following statement failed with ORACLE error 2261: "ALTER TABLE "T" ADD UNIQUE ("A") USING INDEX PCTFREE 10 INITRANS 2 MAXTRAN" "S 255 STORAGE (INITIAL 524288) TABLESPACE "DATA" ENABLE" IMP-00003: ORACLE error 2261 encountered ORA-02261: such unique or primary key already exists in the table About to enable constraints... Import terminated successfully with warnings. tkyte@TKYTE816> select constraint_name name, constraint_type type, search_condition 2 from user_constraints where table_name = 'T';

NAME SYS_C002680 SYS_C002681 MY_RULE SYS_C002683 SYS_C002684 SYS_C002685 SYS_C002686 7 rows selected. T С С С P U R С SEARCH_CONDITION "Z" IS NOT NULL x>5 у > x> Появилось дополнительное требование. На самом деле при каждом повторном импортировании будет добавляться дополнительное требование. Для явно поименованного требования было выдано предупреждение: нельзя дважды создавать требование с одним и тем же именем. А вот не имеющее явно заданного имени требование х > 5 создано снова. Так произошло потому, что сервер сгенерировал для него новое имя. Я знаю случаи, когда выполнялся экспорт на одной базе данных, удалялись данные на другой, и использовался импорт для наполнения структур исходными данными. Со временем накапливались сотни требований проверки для многих столбцов. Производительность начинала падать, и необходимо было выяснить, почему. Причина проста: при каждом копировании данных добавлялся очередной набор требований, делающих те же проверки. Давайте посмотрим, какое влияние может оказать всего сотня избыточных требований:

tkyte@TKYTE816> create table t 2 (x int check (x > 5) 3 ) 4 / Table created. tkyte@TKYTE816> declare 2 l_start number default dbms_utility.get_time;

3 begin 4 for i in 1.. 1000 5 loop 6 insert into t values (10) ;

Глава 7 end loop;

8 dbms_output.put_line 9 (round((dbms_utility.get_time-l_st*rt)/100,2) || ' seconds');

10 end;

11 /. 08 seconds PL/SQL procedure successfully completed. tkyte@TKYTE816> begin 2 for i in 1.. 100 3 loop 4 execute immediate 5 'ALTER TABLE "TKYTE". "T" ADD CHECK ( x > 5 ) ENABLE';

6 end loop;

7 end;

8/ PL/SQL procedure s u c c e s s f u l l y completed. tkyte@TKYTE816> declare 2 l_start number default dbms_utility.get_time;

3 begin 4 for i in 1.. 1000 5 loop 6 insert into t values (10) ;

7 end loop;

8 dbms_output.put_line 9 (round((dbms_utility.get_time-l_start)/100,2) || ' seconds');

10 end;

11 / 17 seconds PL/SQL procedure successfully completed.

Еще одна веская причина явно задавать имена требований!

Поддержка национальных языков (NLS) NLS — это сокращение от National Language Support (поддержка национальных языков). Она позволяет хранить, обрабатывать и получать данные на разных языках. Она гарантирует, что утилиты базы данных и сообщения об ошибках, порядок сортировки, форматы представления даты, времени, денежная единица, соглашения по представлению числовых данных и принятый календарь автоматически согласуются с родным языком клиента и форматом. Например, числа выдаются с соответствующим разделителем разрядов и дробной части. В некоторых странах числа должны выдаваться как 999.999.999,99, в других — как 999,999,999.00. Эти особенности необходимо учитывать при использовании утилит экспорта и импорта для переноса данных в среде с различными наборами символов. Существенное значение имеют наборы символов: • клиента, с которого запускается ЕХР, и базы данных, из которой данные экспортируются;

Импорт и экспорт • клиента, с которого запускается IMP, и клиента, с которого выполняется ЕХР;

• клиента, с которого запускается IMP, и базы данных, в которую выполняется импорт. Если в любой паре наборы символов различаются, данные могут оказаться поврежденными. Рассмотрим весьма тривиальный (но типичный) пример:

ops$tkyte@DEV816> create table t (с varchar2(1));

Table created. ops$tkyte@DEV816> insert into t values (chr(235));

1 row created. ops$tkyte@DEV816> select dump(c) from t;

DUMP(C) Typ=l Len=l: 235 ops$tkyte@DEV816> commit;

Commit complete.

Пока все хорошо. Теперь займемся экспортом:

ops$tkyte@DEV816> host exp userid=tkyte/tkyte tables=t Export: Release 8.1.6.2.0 - Production on Tue Mar 20 16:04:55 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

Connected to: Oracle8i Enterprise Edition Release 8.1.6.2.0 - Production With the Partitioning option JServer Release 8.1.6.2.0 - Production Export done in US7ASCII character set and US7ASCII NCHAR character set server uses WE8ISO8859P1 character set (possible charset conversion) About to export specified tables via Conventional Path.... exporting table T exported Export terminated successfully without warnings. 1 rows Это сообщение (possible charset conversion) должно насторожить! Мы только что взяли 8-битовые данные и экспортировали их в 7-битовый набор символов. Теперь давайте попытаемся импортировать эти данные обратно:

ops$tkyte@DEV816> host imp userid=tkyte/tkyte full=y ignore=y Import: Release 8.1.6.2.0 - Production on Tue Mar 20 16:05:07 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

Connected to: Oracle8i Enterprise Edition Release 8.1.6.2.0 - Production With the Partitioning option JServer Release 8.1.6.2.0 - Production Глава Export file created by EXPORT:V08.01.06 via conventional path import done in US7ASCII character set and US7ASCII NCHAR character set import server uses WE8ISO8859P1 character set (possible charset conversion). importing OPS$TKYTE's objects into OPS$TKYTE.. importing table "T" 1 rows imported Import terminated successfully without warnings. ops$tkyte@DEV816> select dump(c) DUMP(C) Typ=l Len=l: 235 Typ=l Len=l: 101 from t;

Функция DUMP показывает, что данные, взятые из таблицы и снова в нее помещенные, различаются. Это станет понятнее, если представить числа в двоичном виде:

235 а десятичной системе = 11101011 в двоичной 101 в десятичной системе = 01100101 в двоичной Данные были преобразованы из одного набора символов в другой и при этом изменены. Было бы печально обнаружить это после удаления таблицы. Если выдается упомянутое выше сообщение, остановитесь и подумайте о последствиях. В моем случае решение простое. В ОС UNIX или NT достаточно установить значение переменной среды NLS_LANG так, чтобы оно соответствовало базе данных:

$ echo $NLS_LANG AMERICAN_AMERICA.WE8ISO8859P Теперь ни ЕХР, ни IMP не будет преобразовывать набор символов. Кроме того, эти утилиты будут заметно быстрее работать. В ОС Windows NT/2000 значение NLS_LANG можно также задать в реестре.

Таблицы, расположенные в нескольких табличных пространствах Первоначально операторы CREATE TABLE были сравнительно простыми. С годами они все более усложнялись. Синтаксическая диаграмма для простого оператора CREATE TABLE сейчас занимает восемь страниц. Одно из новейших свойств таблиц — возможность разместить их по частям в нескольких табличных пространствах. Например, таблица со столбцом типа CLOB будет иметь сегмент таблицы, сегмент индекса CLOB и сегмент данных CLOB. Можно явно задать местонахождение таблицы и местонахождение данных столбца типа CLOB. Таблица, организованная по индексу, может иметь сегмент индекса и дополнительный сегмент. Фрагментированные таблицы могут состоять из множества фрагментов, каждый из которых располагается в отдельном табличном пространстве. Это создает определенные трудности для утилит экспорта и импорта. Если попытка импорта объекта завершится неудачно из-за отсутствия табличного пространства или ис Импорт и экспорт черпания квоты в этом табличном пространстве, утилита IMP автоматически так изменит SQL-операторы, чтобы объект создавался в стандартном табличном пространстве пользователя. Утилита IMP не будет этого делать для объектов, расположенных в нескольких табличных пространствах, даже если все табличные пространства, заданные в команде CREATE, совпадают. Следующий пример это демонстрирует, а затем я опишу, как обойти проблему. Начнем со схемы, имеющей объекты в нескольких табличных пространствах, и одну простую таблицу, расположенную в одном пространстве:

tkyte@TKYTE816> create tablespace exp_test 2 datafile 'c:\oracle\oradata\tJcyte816\exp_test.dbf' 3 size 1m 4 extent management local 5 uniform size 64k 6/ Tablespace created. tkyte@TKYTE816> alter user tkyte default tablespace exp_test 2/ User altered. tkyte@TKYTE816> create table tl 2 (x int primary key, у varchar2 (25)) 3 organization index 4 overflow tablespace exp_test 5/ Table created. tkyte@TKYTE816> create table t2 2 (x int, у clob) 3/ Table created. tkyte@TKYTE816> create table t3 2 (x int, 3 a int default to_char(sysdate,'d') 4) 5 PARTITION BY RANGE (a) 6( 7 PARTITION part_l VALUES LESS THAN(2), 8 PARTITION part_2 VALUES LESS THAN(3), 9 PARTITION part_3 VALUES LESS THAN(4), 10 PARTITION part_4 VALUES LESS THAN(5), 11 PARTITION part_5 VALUES LESS THAN(6), 12 PARTITION part_6 VALUES LESS THAN(7), 13 PARTITION part_7 VALUES LESS THAN(8) 14 ) 15 / Table created. tkyte@TKYTE816> create table t4 (x int) 2/ Table created.

Глава Итак, мы создали табличное пространство и установили его в качестве стандартного для пользователя. Затем мы создали организованную по индексу таблицу с двумя сегментами — сегментом индекса и дополнительным сегментом. Мы создали таблицу со столбцом типа CLOB, состоящую из трех сегментов. Затем мы создали фрагментированную таблицу из семи сегментов. Наконец, имеется еще обычная, "простая" таблица. Выполним экспорт схемы:

tkyte@TKYTE816> host exp userid=tkyte/tkyte owner=tkyte и удалим табличное пространство:

tkyte@TKYTE816> drop tablespace exp_test including contents;

Tablespace dropped. tkyte@TKYTE816> alter user tkyte default tablespace data;

User altered.

При импорте этой схемы почти все таблицы не будут восстановлены:

tkyte@TKYTE816> host imp userid=tkyte/tkyte full=y Import: Release 8.1.6.0.0 - Production on Tue Mar 20 19:03:18 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 - Production With the Partitioning option JServer Release 8.1.6.0.0 - Production Export file created by EXPORT:V08.01.06 via conventional path import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character sat. importing TKYTE's objects into TKYTE IMP-00017: following statement failed with ORACLE error 959: "CREATE TABLE "T2" ("X" NUMBER(*,0), "Y" CLOB) PCTFREE 10 PCTUSED 40 INITRA" "NS 1 MAXTRANS 255 LOGGING STORAGE (INITIAL 65536) TABLESPACE "EXP_TEST" LOB " " ("Y") STORE AS (TABLESPACE "EXP_TEST" ENABLE STORAGE IN ROW CHUNK 8192 PCT" "VERSION 10 NOCACHE STORAGE(INITIAL 65536))" IMP-00003: ORACLE error 959 encountered ORA-00959: tablespace 'EXP_TEST' does not exist IMP-00017: following statement failed with ORACLE error 959: "CREATE TABLE "T3" ("X" NUMBER(*,0), "A" NUMBER(*,0)) PCTFREE 10 PCTUSED 40" " INITRANS 1 MAXTRANS 255 LOGGING TABLESPACE "EXP_TEST" PARTITION BY RANGE (" ""A" ) (PARTITION "PART_1" VALUES LESS THAN (2) PCTFREE 10 PCTUSED 40 INIT" "RANS 1 MAXTRANS 255 STORAGE (INITIAL 65536) TABLESPACE "EXP_TEST" LOGGING, P" "ARTITION "PART_2" VALUES LESS THAN (3) PCTFREE 10 PCTUSED 40 INITRANS 1 MA" "XTRANS 255 STORAGE (INITIAL 65536) TABLESPACE "EXP_TEST" LOGGING, PARTITION " ""PART_3" VALUES LESS THAN (4) PCTFREE 10 PCTUSED 40 INITRANS 1 MAXTRANS 25" "5 STORAGE(INITIAL 65536) TABLESPACE "EXP_TEST" LOGGING, PARTITION "PART_4" " "VALUES LESS THAN (5) PCTFREE 10 PCTUSED 40 INITRANS 1 MAXTRANS 255 STORAGE" "(INITIAL 65536) TABLESPACE "EXP_TEST" LOGGING, PARTITION "PART_5" VALUES LE" "SS THAN (6) PCTFREE 10 PCTUSED 40 INITRANS 1 MAXTRANS 255 STORAGE(INITIAL " Импорт и экспорт "65536) TABLESPACE "EXP_TEST" LOGGING, PARTITION "PART_6" VALUES LESS THAN (" "7) PCTFREE 10 PCTUSED 40 INITRANS 1 MAXTRANS 255 STORAGE (INITIAL 65536) ТА" "BLESPACE "EXP_TEST" LOGGING, PARTITION "PART_7" VALUES LESS THAN (8) PCTFR" "ЕЕ 10 PCTUSED 40 INITRANS 1 MAXTRANS 255 STORAGE (INITIAL 65536) TABLESPACE " ""EXP_TEST" LOGGING )" IMP-00003: ORACLE error 959 encountered ORA-00959: tablespace 'EXP_TEST' does not exist.. importing table "T4" 0 rows imported IMP-00017: following statement failed with ORACLE error 959: "CREATE TABLE "T1" ("X" NUMBER(*,0), "Y" VARCHAR2 (25), PRIMARY KEY ("X") EN" "ABLE) ORGANIZATION INDEX NOCOMPRESS PCTFREE 10 INITRANS 2 MAXTRANS 255 LOG" "GING STORAGE (INITIAL 65536) TABLESPACE "EXP_TEST" PCTTHRESHOLD 50 OVERFLOW" "PCTFREE 10 PCTUSED 40 INITRANS 1 MAXTRANS 255 LOGGING STORAGE(INITIAL 6553" "6) TABLESPACE "EXP_TEST"" IMP-00003: ORACLE error 959 encountered ORA-00959: tablespace 'EXP_TEST' does not exist Import terminated successfully with warnings.

Единственная восстановленная безошибочно таблица — это простая "нормальная" таблица. Для этой таблицы утилита IMP переписала SQL-оператор. Она удалила первую обнаруженную конструкцию TABLESPACE EXP_TEST и переписала оператор CREATE. Этот переписанный оператор CREATE успешно выполнился. Другие операторы CREATE, переписанные аналогично, не выполнились. Единственное решение этой проблемы — создать таблицы заранее, а затем импортировать с параметром IGNORE=Y. Если под рукой нет операторов CREATE TABLE для таблиц, их, конечно, можно восстановить из DMP-файла с помощью параметра INDEXFILE=Y. Это позволит изменить операторы, подставив соответствующую информацию о табличных пространствах вручную. В нашем случае, поскольку операторы ЯОД мне известны, я просто создам необходимые три таблицы, указав при необходимости новые табличные пространства:

tkyte@TKYTE816> create table tl 2 (x int primary key, у varchar2 (25)) 3 organization index 4 overflow tablespace data 5 / Table created. tkyte@TKYTE816> create table t2 2 (x int, у clob) 3 / Table created. tkyte@TKYTE816> create table t3 2 (x int, 3 a int default to_char(sysdate,'d') 4 ) 5 PARTITION BY RANGE (a) 6 ( 7 PARTITION part_l VALUES LESS THAN(2), 8 PARTITION part_2 VALUES LESS THAN(3), 9 10 11 12 13 14 15 Table Глава PARTITION PARTITION PARTITION PARTITION PARTITION ) / created. part_3 part_4 part_5 part_6 part_7 VALUES VALUES VALUES VALUES VALUES LESS LESS LESS LESS LESS THAN(4), THAN(5), THAN(6), THAN(7), THAN(8) и после этого смогу импортировать данные без ошибок:

tkyte@TKYTE816> host imp userid=tkyte/tkyte full=y ignore=y Import: Release 8.1.6.0.0 - Production on Tue Mar 20 19:03:20 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved.

Connected to: Oracle8i Enterprise Edition Release 8.1.6.0.0 - Production With the Partitioning option JServer Release 8.1.6.0.0 - Production Export file created by EXPORT:V08.01.06 via conventional path import done in WE8ISO8859P1 character set and WE8ISO8859P1 NCHAR character set. importing TKYTE's objects into TKYTE. importing table "T2" 0 rows imported.. importing partition "T3":"PART_1" 0 rows imported.. importing partition "T3":"PART_2" 0 rows imported.. importing partition "T3":"PART_3" 0 rows imported.. importing partition "T3":"PART_4" 0 rows imported. importing partition "T3":"PART_5" 0 rows imported.. importing partition "T3":"PART_6" 0 rows imported.. importing partition "T3":"PART_7" 0 rows imported. importing table "T4" 0 rows imported.. importing table "T1" 0 rows imported Import terminated successfully without warnings.

Что будет, если для некоторых объектов предложенный обходной путь не подойдет и утилита IMP по-прежнему будет выдавать сообщение об ошибке ORA-00959 tablespace 'name' does not exist. Единственное временное решение, которое мне удалось найти, — создать объект заранее (как было показано выше), а затем создать очень небольшие табличные пространства с требуемыми утилитой IMP именами. Для этих табличных пространств надо задать настолько маленькие файлы данных, чтобы в них нельзя было чтото реально создать. Теперь утилита IMP будет работать, и в дальнейшем эти табличные пространства можно будет удалить.

Резюме В этой главе мы рассмотрели много вариантов использования средств экспорта и импорта. Я представил решения типичных проблем и ответы на часто задаваемые вопросы по поводу этих средств. Утилиты ЕХР и IMP особенно полезны, если знать пару-тройку Импорт и экспорт хитрых приемов для работы с ними. С учетом сложности объектов в современных базах данных, я иногда удивляюсь, что они так хорошо работают. Значение утилит IMP и ЕХР со временем меняется. Во времена Oracle версий 5 и 6 они считались ценным средством резервного копирования. Базы данных были маленькими (база данных объемом 100 Мбайт считалась большой) а вопрос постоянной доступности данных лишь начал подниматься. Со временем полезность утилит IMP/EXP в сфере резервного копирования и восстановления снизилась до такой степени, что некоторые вообще не считают их средствами резервного копирования и восстановления. Сегодня ЕХР и IMP — сравнительно простые средства для переноса средних объемов данных с одного экземпляра на другой или (в случае использования переносимых табличных пространств) для множественного переноса данных. Использовать их для резервного копирования базы данных объемом 500 Гбайт — нелепо. А использовать для переноса 100 Гбайт из той же базы данных — вполне допустимо. По-прежнему применяются они как средство "клонирования" схемы (если вы, конечно, представляете потенциальные проблемы) или для извлечения операторов ЯОД, формирующих схему, в файл. В сочетании с другими возможностями СУБД, например триггерами INSTEAD OF для представлений, с их помощью можно исполнить и ряд новых "трюков". Я уверен, что интересные варианты использования, например совместный доступ двух баз данных к файлам только для чтения, еще ждут своего часа.

Загрузка данных В этой главе мы рассмотрим загрузку данных, другими словами, как поместить данные в базу данных Oracle. Глава посвящена, в основном, инструментальному средству SQL*Loader (или SQLLDR, произносится "сиквел лоудер") как основному методу загрузки данных. Однако по ходу дела будут рассмотрены и другие варианты загрузки, а также кратко описаны способы извлечения данных из базы. Утилита SQLLDR была в составе СУБД Oracle, сколько я ее помню, лишь незначительно изменяясь со временем, но при работе с ней у многих все еще возникают вопросы. В этой главе я не собираюсь давать исчерпывающее описание этой утилиты, хочу лишь рассмотреть проблемы, с которыми пользователи сталкиваются ежедневно при ее использовании. Глава построена по принципу "вопрос-ответ". Будет описываться проблема, а затем ее возможные решения. По ходу изложения будут описаны многие особенности использования утилиты SQLLDR и загрузки данных вообще: • загрузка записей с ограничителем и записей в фиксированном формате;

• загрузка дат;

• загрузка данных с использованием последовательностей, а также использование оператора CASE в SQL, добавленного в версии Oracle 8.1.6;

• изменение и загрузка данных в один прием (изменение, если данные существуют, и загрузки — в противном случае);

• загрузка данных с встроенным переводом строк, для которой мы будем использовать ряд новых возможностей и опций (в частности, будут рассмотрены атрибуты FIX, VAR и STR, добавленные в Oracle 8.1.6);

Глава • загрузка больших объектов с помощью новых типов данных, BLOB и CLOB, появившихся в Oracle 8.0 и дающих намного больше возможностей, чем старые типы LONG и LONG RAW. Мы не будем детально описывать режим непосредственной загрузки или использование утилиты SQLLDR в среде хранилищ данных, параллельную загрузку и т.д. Эти темы требуют отдельной книги.

Введение в SQL*Loader Утилита SQL*Loader (SQLLDR) — высокопроизводительное средство массовой загрузки данных в СУБД Oracle. Это очень полезное средство, позволяющее поместить в базу данных Oracle данные из текстовых файлов множества различных форматов. Утилиту SQLLDR можно использовать для потрясающе быстрой загрузки огромных объемов данных. Она имеет два режима работы: • Обычная загрузка. В этом режиме SQLLDR для загрузки данных будет автоматически вставлять строки с помощью SQL-операторов. • Непосредственная загрузка. В этом режиме SQL не используется. Блоки данных в базе формируются непосредственно. Непосредственная загрузка позволяет читать данные из обычного файла и записывать их непосредственно в сформатированные блоки базы данных в обход SQL-машины (а также сегментов отката и журнала повторного выполнения). При распараллеливании непосредственная загрузка является самым быстрым способом наполнения базы данными, причем ускорить этот процесс невозможно. Мы не будем детально рассматривать все аспекты использования SQLLDR. Описанию утилиты SQLLDR посвящено шесть глав руководства Oracle Server Utilities Guide. To, что этих глав — шесть, достойно внимания, поскольку каждой из остальных утилит посвящено не более одной главы. Полный синтаксис всех опций можно найти в руководстве, а эта глава посвящена ответам на вопросы типа "как сделать?", не рассмотренным в документации. Учтите, что интерфейс ОСI (Oracle Call Interface для языка С) позволяет создать собственный непосредственный загрузчик на языке С, начиная с первого выпуска версии Oracle 8.1.6 и далее. Эта возможность пригодится, если окажется, что необходимую операцию невозможно выполнить в SQLLDR или потребуется интегрировать процесс загрузки в приложение. SQLLDR — это утилита командной строки, отдельная программа. Это не библиотека функций, ее нельзя, например, вызвать из PL/SQL. При вызове SQLLDR из командной строки без параметров выдается следующая справочная информация:

$ sqlldr SQLLDR: Release 8.1.6.1.0 - Production on Sun Sep 17 12:02:59 2000 (c) Copyright 1999 Oracle Corporation. All rights reserved. Usage: SQLLOAD keyword=value [,keyword=value,...] Загрузка данных Valid Keywords:

ORACLE username/password Control file name Log file name Bad file name Data file name Discard file name Number of discards to allow (Default all) Number of logical records to skip (Default 0) Number of logical records to load (Default all) Number of errors to allow (Default 50) Number of rows in conventional path bind array or between direct path data saves (Default: Conventional path 64, Direct path all) bindsize — Size of conventional path bind array in bytes (Default 65536) silent — Suppress messages during run (header, feedback, errors, discards, partitions) direct — use direct path (Default FALSE) parfile — parameter file: name of file that contains parameter specifications parallel — do parallel load (Default FALSE) file — File to allocate extents from skip unusable_indexes — disallow/allow unusable indexes or index partitions (Default FALSE) skip_index_maintenance -- do not maintain indexes, mark affected indexes as unusable (Default FALSE) commit_discontinued — commit loaded rows when load is discontinued (Default FALSE) readsize — Size of Read buffer (Default 1048576) Назначение этих параметров кратко описано в следующей таблице: Параметр BAD Назначение Имя файла, который будет содержать отвергнутые записи по окончании загрузки. Если не указать его имя явно, оно будет создано автоматически по имени управляющего (CONTROL) файла (подробнее об управляющих файлах см. далее в этой главе), использованного для загрузки. Например, если в качестве управляющего использован файл foo.ctl, файл BAD по умолчанию получит имя foo.bad;

именно в этот файл и будет помещать отвергнутые записи утилита SQLLDR (если файл существует, он будет перезаписан). Размер (в байтах) буфера, используемого утилитой SQLLDR для вставки данных при обычной загрузке. При непосредственной загрузке этот параметр не используется. Размер буфера используется для определения размера массива, с помощью которого SQLLDR будет вставлять данные.

userid control log bad data discard discardmax skip load errors rows — — — — — — — — — — — BINDSIZE Глава Параметр CONTROL Назначение Имя управляющего (CONTROL) файла, описывающего формат данных и способ их загрузки в таблицу. Управляющий файл необходимо указывать при каждом вызове SQLLDR. Имя файла, из которого надо считывать данные. Допустимы значения True (непосредственная загрузка) и False (обычная загрузка), причем по умолчанию используется False. Таким образом, по умолчанию утилита SQLLDR выполняет обычную загрузку. Имя файла, куда помещаются пропущенные записи, которые не должны загружаться. Утилиту SQLLDR можно использовать для фильтрования загружаемых записей — она позволяет загружать только записи, удовлетворяющие указанным критериям. Задает максимальное количество пропущенных записей, допустимое в процессе загрузки. Если пропущено больше записей, загрузка прекращается. По умолчанию загрузка не прекращается, даже если пропущены все записи. Максимально допустимое количество ошибок, выявленных утилитой SQLLDR, прежде чем загрузка будет прервана. Это могут быть самые разные ошибки, например ошибка преобразования типов данных (скажем, попытка загрузить строку ABC в числовое поле), дублирование записей по ключу уникального индекса и т.д. Стандартно допускается не более 50 ошибок, после чего загрузка прекращается. Чтобы можно было в одном сеансе загрузить все допустимые записи (при этом отвергнутые попадают в BAD-файл), укажите в качестве значения большое число, например 999999999. При использовании непосредственной загрузки с распараллеливанием, этот параметр позволяет явно указать утилите SQLLDR, в какой файл данных загружать записи. Это позволяет уменьшить конфликты доступа к файлам данных при параллельной загрузке и обеспечить запись данных в процессе каждого сеанса загрузки на отдельное устройство. Максимальное количество загружаемых записей. Обычно используется для загрузки небольшого образца данных из большого файла или совместно с параметром SKIP для загрузки из входного файла лишь записей определенного диапазона. Задает имя журнального (LOG) файла. По умолчанию, утилита SQLLDR будет создавать журнальный файл с именем, созданным автоматически на основе имени управляющего файла, аналогично BAD-файлу.

DATA DIRECT DISCARD DISCARDMAX ERRORS FILE LOAD LOG Загрузка данных Параметр PARALLEL Назначение Допускаются значения TRUE или FALSE. Если указано значение TRUE, то выполняется параллельная непосредственная загрузка. Этот параметр необязателен при обычной загрузке, ее можно выполнять параллельно и без его установки. Может использоваться для задания имени файла, содержащего все описываемые параметры в виде пар КЛЮЧЕВОЕ_СЛОВО=ЗНАЧЕНИЕ. Это позволяет не задавать параметры в командной строке. Задает размер буфера, используемого при чтении данных. Количество арок, которое утилита SQLLDR должна вставить, прежде чем фиксировать изменения при обычной загрузке. При непосредственной загрузке задает количество строк, которые необходимо загрузить, прежде чем сохранять данные (это аналог фиксации). При обычной загрузке стандартное значение - 64 строки. При непосредственной загрузке по умолчанию данные не сохраняются, пока загрузка не завершена. Подавляет выдачу информационных сообщений в ходе загрузки. Заставляет утилиту SQLLDR пропустить указанное в качестве значения этого параметра количество строк во входном файле. Чаще всего используется для продолжения прерванной загрузки (для пропуска уже загруженных записей) или для загрузки только части входного файла. Строка подключения к базе данных в формате ИМЯ_ПОЛЬЗОВАТЕЛЯ/ПАРОЛЬ@БАЗА_ДАННЫХ. Используется для аутентификации в базе данных.

PARFILE READSIZE ROWS SILENT SKIP USERID SKIP_INDEX_MAINTENANCE He используется при обычной загрузке, поскольку в этом режиме поддерживаются все индексы. Если этот параметр установлен при непосредственной загрузке, СУБД Oracle не поддерживает индексы: они помечаются как недоступные для использования. После загрузки данных такие индексы необходимо пересоздать. SKIP_UNUSABLE_INDEXES Требует от утилиты SQLLDR разрешить загрузку строк в таблицу, по которой есть недоступные для использования индексы, если эти индексы - не уникальные.

Чтобы использовать утилиту SQLLDR, необходим управляющий файл. Управляющий файл содержит информацию, описывающую загружаемые данные: их организацию, типы денных и т.д., а также указывает, в какую таблицу или таблицы эти данные необходимо Глава загрузить. Управляющий файл может содержать даже данные, которые необходимо загрузить. В следующем примере создается простой управляющий файл и описываются используемые на каждом шаге команды:

LOAD DATA LOAD DATA. Эта команда указывает утилите SQLLDR, что необходимо сделать (в данном случае — загрузить данные). А еще можно указывать действие CONTINUE_LOAD для возобновления загрузки. Эта опция используется только для продолжения непосредственной загрузки нескольких таблиц.

INFILE * INFILE *. Эта конструкция указывает SQLLDR, что данные, которые необходимо загрузить, находятся в самом управляющем файле (см. ниже). В этой конструкции можно также указать имя другого файла, содержащего данные. При необходимости в командной строке можно переопределить имя файла, задаваемого в конструкции INFILE. Учтите, что опции командной строки имеют преимущество над установками, заданными в управляющем файле, как будет рассмотрено в разделе "Предупреждения".

INTO TABLE DEPT INTO TABLE DEPT. Эта конструкция указывает, в какую таблицу загружаются данные;

в нашем случае это таблица DEPT.

FIELDS TERMINATED BY ',' FIELDS TERMINATED BY ','. Эта конструкция указывает, что данные будут представлены в виде списка значений через запятую. Есть десятки способов описать загружаемые данные в SQLLDR, это — лишь один из наиболее часто используемых.

(DEPTNO, DNAME, LOC ) (DEPTNO, DNAME, LOC). Эта конструкция указывает, какие столбцы загружаются, их порядок следования в загружаемых данных и типы. При этом указываются типы данных во входном потоке, а не типы соответствующих столбцов в базе данных. В нашем случае используется стандартный формат CHAR(255), что вполне подходит.

BEGINDATA BEGINDATA. Эта конструкция указывает утилите SQLLDR, что описание загружаемых данных закончено и что со следующей строки идут данные, которые необходимо загрузить в таблицу DEPT:

10,Sales,Virginia 20.Accounting,Virginia 30,Consulting,Virginia 40,Finance,Virginia Итак, вот управляющий файл в одном из наиболее простых и типичных форматов — для загрузки в таблицу данных со столбцами, определяемыми разделителем. В этой гла Загрузка данных ве будут рассмотрены намного более сложные примеры, но для начального знакомства он вполне пригоден. Чтобы применить этот управляющий файл, достаточно создать пустую таблицу DEPT:

tkyte@TKYTE816> create table dept 2 (deptno number(2) constraint emp_pk primary key, 3 dname varchar2(14), 4 loc varchar2(13) 5) 6/ Table created.

и выполнить следующую команду:

C:\sglldr>sqlldr userid=tkyte/tkyte control=demol.ctl SQLLDR: Release 8.1.6.0.0 - Production on Sat Apr 14 10:54:56 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved. Commit point reached - logical record count Если таблица не пуста, будет выдано сообщение об ошибке:

SQLLDR-601: For INSERT option, table must be empty. Error on table DEPT Так происходит потому, что в управляющем файле используются почти исключительно стандартные установки, а стандартно при загрузке выполняется операция INSERT (еще возможны APPEND, TRUNCATE или REPLACE). При выполнении операции INSERT предполагается, что таблица пуста. Если необходимо добавить записи в таблицу DEPT, можно указать операцию APPEND, а для замены данных в таблице DEPT — операцию REPLACE или TRUNCATE. При каждой попытке загрузки генерируется журнальный файл. Журнальный файл для нашего примера будет иметь следующий вид:

SQLLDR: Release 8.1.6.0.0 - Production on Sat Apr 14 10:58:02 2001 (с) Copyright 1999 Oracle Corporation. Control File: demol.ctl All rights reserved.

Data File: demol.ctl Bad File: demol.bad Discard File: none specified (Allow all discards) Number to load: Number to skip: Errors allowed: Bind array: Continuation: Path used: ALL 0 50 64 rows, maximum of 65536 bytes none specified Conventional Table DEPT, loaded from every logical record. Insert option in effect for this table: INSERT Глава 9 Column Name Position FIRST NEXT NEXT Len Term Encl Datatype * * *,,, CHARACTER CHARACTER CHARACTER DEPTNO DNAME LOC Table DEFT: 4 Rows successfully loaded. 0 Rows not loaded due to data errors. 0 Rows not loaded because all WHEN clauses were failed. 0 Rows not loaded because all fields were null. Space allocated for bind array: 49536 bytes(64 rows) Space allocated for memory besides bind array: 0 bytes Total Total Total Total logical logical logical logical records records records records skipped: read: rejected: discarded: 0 4 0 Run began on Sat Apr 14 10:58:02 2001 Run ended on Sat Apr 14 10:58:02 2001 Elapsed time was: CPU time was: 00:00:00.11 00:00:00. В журнальном файле представлены различные характеристики выполненной загрузки. Можно увидеть использованные опции (стандартные или явно указанные). Можно узнать, сколько записей прочитано, сколько из них было загружено и т.д. Указаны имена файлов BAD и DISCARD. Указана даже продолжительность загрузки. Журнальные файлы позволяют проверить, успешно ли прошла загрузка, и не было ли сообщений об ошибках. Если при загрузке данных были ошибки SQL (загружаемые данные — "плохие", и соответствующие записи помещены в BAD-файл), эти ошибки записываются в журнальный файл. Информация в журнальном файле не нуждается в комментариях, поэтому мы не будем его рассматривать.

Как сделать...

Теперь мы переходим к наиболее часто задаваемым, по моему опыту, вопросам о загрузке и выгрузке данных из базы данных Oracle с помощью утилиты SQLLDR.

Загрузка данных с разделителями Данные с разделителями, т.е. разделенные некоторым специальным символом и, возможно, взятые в кавычки, — наиболее популярный в настоящее время формат обычных файлов. На больших ЭВМ чаще всего используются файлы с записями фиксированной длины и фиксированного формата, но в UNIX и NT нормой при обмене данными является текстовый файл с разделителями. В этом разделе мы изучим популярные опции, используемые при загрузке данных с разделителями.

Загрузка данных Наиболее популярным форматом данных с разделителями является формат CSV (comma-separated values — значения через запятую). При этом формате файла, когда каждое поле данных отделяется от следующего запятой, текстовые строки можно брать в кавычки, так что в самой строке данных может содержаться запятая. Если в строке также должен быть символ кавычки, принято соглашение удваивать такой символ кавычки (в представленном ниже коде мы использовали "", а не просто "). Типичный управляющий файл для загрузки данных с разделителями выглядит примерно так:

LOAD DATA INFILE * INTO TABLE DEPT REPLACE FIELDS TERMINATED BY ',' OPTIONALLY ENCLOSED BY '"' (DEPTNO, DNAME, LOC ) BEGINDATA 10,Sales,"""USA""" 20,Accounting,"Virginia,USA" 30,Consulting,Virginia 40,Finance,Virginia 50,"Finance","",Virginia 60,"Finance",,Virginia Основное содержится в следующей строке:

FIELDS TERMINATED BY ',' OPTIONALLY ENCLOSED BY "" Она указывает, что поля данных разделяются запятыми, и что каждое поле может быть взято в двойные кавычки. При запуске утилиты SQLLDR с этим управляющим файлом будут получены следующие результаты:

tkyte@TKYTE816> select * from dept;

DEPTNO DNAME 10 20 30 40 50 60 Sales Accounting Consulting Finance Finance Finance LOC "USA" Virginia,USA Virginia Virginia 6 rows selected.

Обратите внимание на следующее: • "USA" — это результат, полученный из загружаемых данных вида """USA""". Утилита SQLLDR восприняла два вхождения " как одну кавычку внутри строки в кавычках. Для загрузки данных с необязательными символами, используемыми вокруг строк, необходимо эти символы удваивать.

Глава • Virginia,USA в качестве местонахождения отдела 20 — это результат, полученный при загрузке данных вида "Virginia,USA". Это поле загружаемых данных пришлось взять в кавычки, чтобы можно было загрузить запятую как часть данных. Иначе запятая считалась бы признаком конца поля, и слово Virginia было бы загружено без уточнения USA. • Записи для отделов 50 и 60 были загружены с пустыми (Null) значениями в поле местонахождения. Если данных нет, можно указывать пустую строку в кавычках, а можно и не указывать — результат будет тем же. Еще один популярный формат — данные, разделяемые символами табуляции. Есть два способа загрузки таких данных с помощью конструкции TERMINATED BY: • TERMINATED BY X'09', т.е. символ табуляции задается в шестнадцатиричном виде (9 — это ASCII-код символа табуляции), но можно также использовать конструкцию • TERMINATED BY WHITESPACE Интерпретация этих двух вариантов, однако, существенно различается, как будет продемонстрировано ниже. Используя представленную выше таблицу DEPT, мы попытаемся загрузить данные с помощью следующего управляющего файла:

LOAD DATA INFILE * INTO TABLE DEPT REPLACE FIELDS TERMINATED BY WHITESPACE (DEPTNO, DNAME, LOC) BEGINDATA 10 Sales Virginia На странице это может быть неочевидным, но между каждым приведенным выше фрагментом данных указаны два символа табуляции. Строка данных фактически имеет вид:

10\t\tSales\t\tVirginia где \t — стандартная управляющая последовательность для представления символа табуляции. При использовании управляющего файла с конструкцией TERMINATED BY WHITESPACE, как показано выше, в таблице DEPT окажутся следующие данные:

tkyte@TKYTE816> DEPTNO DNAME 10 Sales select * from dept;

LOC Virginia Если указана конструкция TERMINATED BY WHITESPACE, в строке ищется первое вхождение пробельного символа (табуляции, пробела или перевода строки), после чего разделителем считается все вплоть до следующего непробельного символа. Поэто Загрузка данных му при разборе данных DEPTNO получает значение 10, а два следующих символа табуляции считаются разделителем, затем значение Sales присваивается столбцу DNAME и так далее. Если указать конструкцию FIELDS TERMINATED BY X'09' как в следующем управляющем файле:

LOAD DATA INFILE * INTO TABLE DEPT REPLACE FIELDS TERMINATED BY X'09' (DEPTNO, DNAME, LOC ) BEGINDATA 10 Sales Virginia то окажется, что в таблицу DEPT загружены следующие данные:

tkyte@TKYTE816> select * from dept;

DEPTNO DNAME 10 LOC Sales В данном случае, как только утилита SQLLDR обнаруживает символ табуляции, она выдает значение. Поэтому значение 10 присвоено столбцу DEPTNO, а в столбце DNAME оказалось значение Null, поскольку после первого символа табуляции никаких данных не было, сразу стоял следующий символ табуляции. Значение Sales попало в столбец LOC. Так и должны работать конструкции TERMINATED BY WHITESPACE и TERMINATED BY <символ>. Загружаемые данные и способ их интерпретации определяют, какую из них использовать. При загрузке данных с разделителями такого вида часто необходимо пропустить некоторые столбцы загружаемых записей. Например, может потребоваться загрузить столбцы 1, 3 и 5, пропустив столбцы 2 и 4. Для этого утилита SQLLDR предлагает ключевое слово FILLER. Оно позволяет сопоставить столбец полю входной записи, но не помещать его в базу данных. Например, можно загрузить в представленную ранее таблицу DEPT данные, содержащие четыре поля, с использованием следующего управляющего файла, не помещающего второе поле в базу данных:

LOAD DATA INFILE * INTO TABLE DEPT REPLACE FIELDS TERMINATED BY ', ' OPTIONALLY ENCLOSED BY "" ( DEPTNO, FILLER_1 FILLER, DNAME, LOC Глава ) BEGINDATA 20,Something Not To Be Loaded,Accounting,"Virginia,USA" В результате получится следующая таблица DEPT: tkyte@TKYTE816> select * from dept;

DEPTNO DNAME 20 Accounting LOC Virginia,USA Загрузка данных в фиксированном формате Часто имеется текстовый файл, который сгенерирован внешней системой и содержит записи фиксированной длины с данными в фиксированных символьных позициях. Например, поле NAME задано в позициях с 1 по 10, поле ADDRESS — позициях с 11 по 35 и т.д. Давайте рассмотрим, как с помощью утилиты SQLLDR импортировать такие данные. Эти данные в виде записей фиксированной длины с полями в заранее известных позициях являются оптимальными для загрузки с помощью SQLLDR. Они обрабатываются быстрее всего, поскольку поток данных очень просто анализировать. Утилита SQLLDR будет читать данные с фиксированных позиций фиксированной длины и помещать их в поля, что сделать очень просто. Если необходимо загрузить очень большой объем данных, лучше всего преобразовать их в формат с фиксированными полями. Недостатком файла в фиксированном формате является, конечно же, то, что он может быть намного больше по размеру, чем соответствующий файл в формате с разделителями. Для загрузки данных с фиксированных позиций, необходимо использовать в управляющем файле ключевое слово POSITION. Например:

LOAD DATA INFILE * INTO TABLE DEFT REPLACE (DEPTNO position(1:2), DNAME position(3:16), LOC position(17:29) ) BEGINDATA l0Accounting Virginia,USA В этом управляющем файле не используется конструкция FIELDS TERMINATED BY, вместо этого для указания начала и конца полей используется конструкция POSITION. Следует отметить, что с помощью конструкции POSITION можно задавать перекрывающиеся поля, в любом порядке. Например, если бы пришлось изменить таблицу DEPT следующим образом:

tkyte@TKYTE816> alter table dept add entire_line varchar(29);

Table altered.

Загрузка данных то затем для загрузки можно было бы использовать управляющий файл:

LOAD DATA INFILE * INTO TABLE DEPT REPLACE (DEPTNO position(1:2), DNAME position (3:16), LOC position(17:29), ENTIRE_LINE position(1:29) ) BEGINDATA l0Accounting Virginia,USA Позиции поля ENTIRE_LINE определяются как (1:29) — в него попадают все 29 байт данных, тогда как другие поля — всего лишь подстроки загружаемых данных. Результат применения представленного выше управляющего файла будет таким:

tkyte@TKYTE816> select * from dept;

DEPTNO DNAME LOC ENTIRE_LINE l0Accounting Virginia,USA 10 Accounting Virginia,USA При использовании конструкции POSITION, можно задавать как абсолютные, так и относительные смещения. В представленном выше примере использовались абсолютные смещения. Я явно указывал, где начинаются поля и где они заканчиваются. Этот управляющий файл можно переписать следующим образом:

LOAD DATA INFILE * INTO TABLE DEPT REPLACE (DEPTNO position(1:2), DNAME position(*:16), LOC position(*:29), ENTIRE_LINE position(1:29) ) BEGINDATA l0Accounting Virginia,USA Символ * требует начать поле с той позиции, перед которой закончилось предыдущее. Поэтому в нашем случае (*:1б) — это то же самое, что и (3:16). Учтите, что можно задавать как абсолютные, так и относительные позиции в одном управляющем файле. Кроме того, при использовании символа * можно добавлять к смещению константы. Например, если поле DNAME начинается через два символа после завершения поля DEPTNO, можно использовать конструкцию (*+2:1б). В нашем примере это будет идентично использованию конструкции (5:16). Завершающая позиция поля в конструкции POSITION должна задаваться как абсолютная, с начала записи. Иногда может быть проще указать начальную позицию и длину поля, особенно если поля идут подряд, как в предыдущем примере. При этом доста Глава точно указать утилите SQLLDR, что запись начинается с символа 1, а затем задать длину каждого поля. Это позволит не вычислять смешения начала и конца каждого поля от начала записи, что иногда затруднительно. Для этого завершающая позиция поля не указывается, а вместо нее задается длина каждого поля в записи фиксированного формата, как показано ниже:

LOAD DATA INFILE * INTO TABLE DEPT REPLACE ( DEPTNO position(1) char(2), DNAME position(*) char(14), LOC position(*) char(13), ENTIRE_LINE position(1) char(29) ) BEGINDATA l0Accounting Virginia,USA Здесь пришлось указать утилите SQLLDR, где начинается первое поле и его длину. Каждое последующее поле начинается со следующей позиции после завершения предыдущего и имеет указанную длину. Абсолютные позиции надо указать только для последнего поля, поскольку оно начинается с начала записи.

Загрузка дат Загрузка дат с помощью SQLLDR выполняется достаточно просто, но у многих вызывает вопросы. Нужно просто указать тип данных DATE в управляющем файле и соответствующую маску формата даты. Маска формата даты такая же, как и для функций TO_CHAR и TO_DATE в SQL Утилита SQLLDR применит эту маску к данным и загрузит их автоматически. Например, если еще раз изменить нашу таблицу DEPT:

tkyte@TKYTE816> a l t e r table dept add last_updated date;

Table altered, то можно будет загрузить в нее данные с помощью следующего управляющего файла:

LOAD DATA INFILE * INTO TABLE DEPT REPLACE FIELDS TERMINATED BY ',' (DEPTNO, DNAME, LOC, LAST_UPDATED date 'dd/mm/yyyy' ) BEGINDATA 10,Sales,Virginia,1/5/2000 20,Accounting,Virginia,21/6/ Загрузка данных 30,Consulting,Virginia,5/1/2000 40,Finance,Virginia,15/3/ В результате, таблица DEPT будет выглядеть так:

tkyte@TKYTE816> select * from dept;

DEPTNO DNAME LOC LAST_UPDA 10 Sales 20 Accounting 30 Consulting 40 Finance Virginia Virginia Virginia Virginia 01-MAY-00 21-JON-99 05-JAN-00 15-MAR- Вот так просто. Достаточно указать формат даты в управляющем файле и утилита SQLLDR автоматически преобразует данные в даты. В некоторых случаях может потребоваться использовать более сложные функции SQL. Например, если входной файл содержит даты в различных форматах: иногда с компонентом времени, иногда — без, иногда в формате DD-MON-YYYY, иногда — в формате DD/MM/YYYY и т.д. В следующем разделе мы рассмотрим, как с помощью функций в SQLLDR решить эти проблемы.

Загрузка данных с использованием последовательностей и других функций В этом разделе мы рассмотрим, как использовать последовательности и функции SQL при загрузке данных. Помните, однако, что для использования последовательностей и функций SQL необходимо обращаться к SQL-машине, поэтому при непосредственной загрузке использовать их нельзя. Использовать функции в SQLLDR очень просто, если понимать, как утилита SQLLDR строит свои операторы INSERT. Чтобы применить функцию к полю в SQLLDR, необходимо просто добавить ее в управляющем файле в двойных кавычках. Предположим, необходимо обеспечить загрузку данных в верхнем регистре в рассмотренную ранее таблицу DEPT. Для этого можно использовать следующий управляющий файл:

LOAD DATA INFILE * INTO TABLE DEPT REPLACE FIELDS TERMINATED BY ', ' (DEPTNO, DNAME "upper(:dname)", LOC "upper(:loc)", LAST_UPDATED date 'dd/mm/yyyy' ) BEGINDATA 10,Sales,Virginia,1/5/2000 20,Accounting,Virginia,21/6/1999 30,Consulting,Virginia,5/1/2000 40,Finance,Virginia,15/3/ Глава В результате, в базе данных окажется следующее:

tkyte@TKYTE816> select * from dept;

DEPTNO DNAME 10 20 30 40 SALES ACCOUNTING CONSULTING FINANCE LOC VIRGINIA VIRGINIA VIRGINIA VIRGINIA ENTIRE_LINE LAST_UPDA 01-MAY-00 21-JUN-99 05-JAN-00 15-MAR- Обратите внимание, как просто перевести данные в верхний регистр — достаточно применить функцию UPPER к связываемой переменной. Учтите, что в SQL-функциях можно использовать любые столбцы, независимо от того, значение какого столбца определяет функция. Это означает, что значение столбца может задаваться как функция от нескольких других столбцов. Например, если надо загрузить данные в столбец ENTIRE_LINE, можно было бы использовать оператор конкатенации SQL. В данном случае все несколько сложнее, чем кажется. Пока что в записях загружаемых данных — четыре поля. Если просто добавить ENTIRE_LINE в управляющий файл следующим образом:

LOAD DATA INFILE * INTO TABLE DEPT REPLACE FIELDS TERMINATED BY ', ' (DEPTNO, DUMB "upper(:dname)", LOC "upper(:loc)", LAST_UPDATED date ' dd/mm/yyyy', ENTIRE_LINE ":deptno||:dname||:loc||:last_updated" ) BEGINDATA 10,Sales,Virginia,1/5/2000 20,Accounting,Virginia,21/6/1999 30,Consulting,Virginia,5/1/2000 40,Finance, Virginia,15/3/ то для каждой загружаемой записи в журнальном файле будет зарегистрирована следующая ошибка:

Record 1: Rejected — Error on table DEPT, column ENTIRE_LINE. Column not found before end of logical record (use TRAILING NULLCOLS) В данном случае утилита SQLLDR сообщает, что данных в записи (полей) не хватило для всех столбцов. Решение этой проблемы — простое, и утилита SQLLDR даже подсказывает, что делать: USE TRAILING NULLCOLS. В результате SQLLDR будет связывать значение Null со столбцом данных, если в загружаемой записи данных для него нет. В данном случае добавление TRAILING NULLCOLS приведет к тому, что связываемая переменная :ENTIRE_LINE будет получать значение Null. Поэтому мы попробуем еще раз, со следующим управляющим файлом:

Загрузка данных LOAD DATA INFILE * INTO TABLE DEPT REPLACE FIELDS TERMINATED BY ',' TRAILING NULLCOLS (DEPTNO, DNAME "upper(:dname)", LOC "upper(:loc)", LAST_UPDATED date 'dd/mm/yyyy', ENTIRE_LINE ":deptno||:dname||:loc||:last_updated" ) BEGINDATA 10,Sales,Virginia,1/5/2000 20,Accounting,Virginia,21/6/1999 30,Consulting,Virginia,5/1/2000 40,Finance,Virginia,15/3/ Теперь в таблице будут такие данные:

tkyte@TKYTE816> select * from dept;

Pages:     | 1 |   ...   | 6 | 7 || 9 | 10 |   ...   | 24 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.