WWW.DISSERS.RU

БЕСПЛАТНАЯ ЭЛЕКТРОННАЯ БИБЛИОТЕКА

   Добро пожаловать!

Pages:     | 1 |   ...   | 7 | 8 || 10 | 11 |   ...   | 24 |

«Oracle для профессионалов Том Кайт DiaSoft 2003 торгово-издательский дом Москва • Санкт-Петербург • Киев УДК 681.3. 06(075) Б Б К 32.973.2 К 91 КАЙТ ТОМ К 91 Oracle для профессионалов. Пер. с ...»

-- [ Страница 9 ] --

DEPTNO DNAME 10 20 30 40 SALES ACCOUNTING CONSULTING FINANCE LOC VIRGINIA VIRGINIA VIRGINIA VIRGINIA ENTIRE_LINE 10SalesVirginial/5/2000 20AccountingVirginia21/6/1999 30ConsultingVirginia5/l/2000 40FinanceVirginial5/3/2001 LAST_UPDA 01-MAY-00 21-JUN-99 05-JAN-OO 15-MAR- Понять, почему этот трюк удался, можно, если разобраться, как утилита SQLLDR строит операторы INSERT. Утилита SQLLDR просматривает заданный управляющий файл и находит в нем столбцы DEPTNO, DNAME, LOC, LAST_UPDATED и ENTIRE_LINE. Затем она создает пять связываемых переменных, имена которых совпадают с именами столбцов. Обычно, если функции не используются, она строит следующий простой оператор INSERT:

INSERT INTO DEPT (DEPTNO, DNAME, LOC, LAST_UPDATED, ENTIRE_LINE) VALUES (:DEPTNO, :DNAME, :LOC, :LAST_UPDATED, :ENTIRE_LINE) ;

Затем она разбирает входной поток, присваивает значения связываемым переменным и выполняет оператор. При использовании функций, SQLLDR включает их в оператор INSERT. В рассмотренном выше примере оператор INSERT, созданный утилитой SQLLDR, будет выглядеть так:

INSERT INTO Т (DEPTNO, DNAME, LOC, LAST_UPDATED, ENTIRE_LINE) VALUES (:DEPTNO, upper (:dname), upper (:loc), :last_updated, :deptno||:dname||:loc||:last_updated);

Поэтому практически все, что можно придумать и выполнить в операторе SQL, можно включить и в управляющий файл SQLLDR. С учетом наличия оператора CASE в SQL (он добавлен в Oracle 8i), можно создавать мощные и при этом простые схемы загрузки. Предположим, необходимо загрузить даты, которые иногда содержат компонент времени, а иногда — нет. Для этого можно использовать управляющий файл следующего вида:

Глава LOAD DATA INFILE * INTO TABLE DEPT REPLACE FIELDS TERMINATED BY ',' TRAILING NULLCOLS (DEPTNO, DNAME "upper(:dname)", LOC "upper(:loc)", LAST_UPDATED "case when length(:last_updated) <= 10 then to_date(:last_updated,'dd/mm/уууу') else to_date(:last_updated,'dd/mm/yyyy hh24:mi:ss') end" ) BEGINDATA 10,Sales,Virginia,1/5/2000 12:03:03 20,Acoounting,Virginia,21/6/1999 30,Consulting,Virginia,5/1/2000 01:23:00 40,Finance,Virginia,15/3/ что дает в результате:

tkyte@TKYTE816> alter session 2 set nls_date_format = 'dd-mon-yyyy hh24:mi:ss';

Session altered. tkyte@TKYTE816> select * from dept;

DEPTNO DNAME 10 20 30 40 SALES ACCOUNTING CONSULTING FINANCE LOC VIRGINIA VIRGINIA VIRGINIA VIRGINIA ENTIRE_LINE LAST_UPDATED 01-may-2000 21-jun-1999 05-jan-2000 15-mar-2001 12:03:03 00:00:00 01:23:00 00:00: Теперь к строкам загружаемых данных будет применяться один из двух форматов даты (обратите внимание, что теперь мы загружаем не даты, а обычные строки). Оператор CASE выбирает одну из масок формата даты в зависимости от длины строки. Можно создавать собственные функции для вызова при загрузке с помощью SQLLDR. Это прямое следствие того факта, что PL/SQL-функции можно вызывать в SQL. Допустим, даты во входном файле указаны в одном из следующих форматов (удивительно, как часто такое бывает — почему-то принято в файлах данных использовать несколько форматов дат):

dd-mon-yyyy dd-month-yyyy dd/mm/yyyy dd/mm/yyyy hh24:mi:ss количество секунд, прошедшее после 1 января 1970 года по Гринвичу (или "UNIX-время") Теперь использовать оператор CASE очень сложно, поскольку по длине строки нельзя однозначно определить ее формат. Вместо этого можно создать функцию, которая бу Загрузка данных дет перебирать форматы даты, пока не найдет подходящий. Следующая функция в цикле перебирает возможные форматы даты, применяя их поочередно, пока не удастся успешно выполнить преобразование. Если по завершении цикла преобразовать строку в дату не удалось, мы предполагаем, что это дата в формате ОС UNIX, и выполняем соответствующее преобразование. Если и это не получится, информация об ошибке просто передается утилите SQLLDR, которая поместит соответствующую запись в BADфайл. Функция выглядит следующим образом:

tkyte@TKYTE816> create or replace 2 function my_to_date(p_string in varchar2) return date 3 as 4 type fmtArray is table of varchar2(25);

5 6 l_fmts fmtArray := fmtArray('dd-mon-yyyy', 'dd-month-yyyy', 7 'dd/nm/yyyy', 8 'dd/mm/yyyy hh24 :mi: ss');

9 l_return date;

10 begin 11 for i in 1.. l_fmts.count 12 loop 13 begin 14 l_return := to_date(p_string, l_fmts(i));

15 exception 16 when others then null;

17 end;

18 EXIT when l_return is not null;

19 end loop;

20 21 if (l_return is null) 22 then 23 l_return := 24 new_time(to_date('01011970','ddmmyyyy') + 1/24/60/60 * 25 p_string, 'GMT', 'EST');

26 end if;

27 28 return l_return;

29 end;

30 / Function created.

Теперь ее можно использовать в управляющем файле:

LOAD DATA INFILE * INTO TABLE DEFT REPLACE FIELDS TERMINATED BY ', ' (DEPTNO, DNAME "upper(:dname)", LOC "upper(:loc)", LAST_UPDATED "my_to_date(:last_updated) " Глава BEGINDATA 10,Sales,Virginia,01-april-2001 20,Accounting,Virginia,13/04/2001 30,Consulting,Virginia,14/04/2001 12:02:02 40,Finance,Virginia,987268297 50,Finance,Virginia,02-apr-2001 60,Finance,Virginia,Not a date После загрузки в журнальном файле окажется следующее сообщение об ошибке:

Record 6: Rejected - Error on table DEPT, column LAST_UPDATED. ORA-06502: PL/SQL: numeric or value error: character to number conversion error ORA-06512: at "TKYTE.MY_TO_DATE", line 30 ORA-06512: at line показывающее, что последнюю запись загрузить не удалось, но все остальные были загружены. Эта не загруженная запись окажется в BAD-файле. Ее можно исправить и загрузить повторно. Если проверить загруженные данные, получим:

tkyte@TKYTE816> alter session 2 Session altered. tkyte@TKYTE816> select deptno, dname, loc, last_updated from dept;

DEPTNO DNAME SALES ACCOUNTING CONSULTING FINANCE FINANCE LOC VIRGINIA VIRGINIA VIRGINIA VIRGINIA VIRGINIA LAST UPDATED 01-apr-2001 13-apr-2001 14-apr-2001 14-apr-2001 02-apr-2001 00:00:00 00:00:00 12:02:02 12:11:37 00:00:00 set nls_date_format = 'dd-mon-yyyy hh24:mi:ss';

10 20 30 40 Изменение существующих строк и вставка новых Часто приходится добавлять записи из файла в таблицу. При этом данные используются для обновления существующих строк, задаваемых первичным ключом, или просто вставить их, если таких строк еще нет. За один шаг это сделать нельзя, но вполне можно за три, причем простых. Сначала я кратко опишу, что нужно сделать, а затем шаг за шагом продемонстрирую соответствующий код. Итак, необходимо. 1. Загрузить все данные с опцией APPEND, указав параметр ERRORS=99999999. Задание большого количества возможных ошибок позволит загрузить все "хорошие" (новые) записи. Записи, которые являются обновлениями существующих, будут отвергнуты из-за нарушения ограничения первичного ключа. Они будут записаны в ВАD-файл. Итак, все новые записи уже загружены.

Загрузка данных 2. Загрузить BAD-файл в рабочую таблицу с опцией TRUNCATE. Структура этой таблицы совпадает со структурой "реальной" — она должна иметь тот же набор требований и т.д. В результате в нее будут загружены только уже имеющиеся в основной таблице записи. Записи, отвергнутые по другим причинам (кроме нарушения требования первичного ключа) несоответствия данных, в эту таблицу тоже не попадут. 3. Обновить данные, получающиеся при соединении реальной и рабочей таблицы. Используя таблицу DEPT из предыдущих примеров и данные, полученные в результате последней загрузки (отделы 10, 20, 30, 40 и 50), загрузим следующие данные:

10,Sales,New York,14-april-2001 60,Finance,Virginia,14-april- В результате одна запись должна быть изменена, а одна — вставлена. Предполагая, что эти данные находятся в файле new.dat, создадим управляющий файл load.ctl следующего вида:

LOAD DATA INTO TABLE DEPT APPEND FIELDS TERMINATED BY ',' (DEPTNO, DNAME "upper(:dname)", LOC "upper(:loc)", LAST_UPDATED "my_to_date(:last_updated)" ) Этот управляющий файл очень похож на предыдущий, но конструкции INFILE * и BEGINDATA удалены, а конструкция REPLACE заменена конструкцией APPEND. Файл, из которого надо загружать данные, мы будем задавать в командной строке, поэтому конструкция INFILE не нужна, а поскольку данные находятся во внешнем файле, то и BEGINDATA указывать не нужно. Так как мы хотим вставлять новые записи и изменять существующие, используется конструкция APPEND, а не REPLACE, как ранее. Итак, теперь можно загрузить данные с помощью команды:

C:\>sqlldr userid=tkyte/tkyte control=load.сtl data=new.dat errors= При выполнении этой команды будет сгенерирован BAD-файл с одной записью. Запись для отдела 10 окажется в файле new. bad, поскольку нарушает ограничение первичного ключа. Это можно проверить, обратившись к журнальному файлу, load.log:

Record 1: Rejected - Error on table DEPT. ORA-00001: unique constraint (TKYTE.EMP_PK) violated Теперь загрузим BAD-файл с помощью почти такого же управляющего файла. Надо изменить имя таблицы, в которую будут загружаться данные: DEPT на DEPT_WORKING, а также использовать конструкцию REPLACE вместо APPEND. Таблица, в которую будут загружаться данные, создается следующим образом:

tkyte@TKYTE816> create 2 as table dept_working 4 Глава select * from dept where 1=0 / Table created. tkyte@TKYTE816> alter table dept_working 2 add constraint dept_working_pk 3 primary key(deptno) 4 / Table altered.

При загрузке данных не забудьте указать параметр ВAD=<имя файла> в командной строке, чтобы не произошло чтения и записи одного и того же файла!

C:\sqlldr>sqlldr userid=tkyte/tkyte control=load_working.etl bad=working.bad data=new.bad После загрузки в таблице DEPT_WORKING окажется одна строка. Если в файле WORKING.BAD окажутся записи, значит, они действительно плохие, нарушают одно из требований целостности и требуют отдельного рассмотрения. Теперь, когда и эта загрузка выполнена, можно обновить существующие строки в таблице DEPT с помощью оператора UPDATE:

tkyte@TKYTE816> set autotrace on explain tkyte@TKYTE816> update (select /*+ ORDERED USE_NL(dept) */ 2 dept.dname dept_dname, 3 dept.loc dept_loc, 4 dept.last_updated dept_last_updated, 5 w.dname w_dname, 6 w.loc w_loc, 7 w.last_updated w_last_updated 8 from dept_working W, dept 9 where dept.deptno = w.deptno) 10 set dept_dname = w_dname, 11 dept_loc = w_loc, 12 dept_last_updated = w_last_updated 13 / 1 row updated. Execution 0 1 2 3 4 5 0 1 2 2 4 Plan UPDATE STATEMENT Optimizer=CHOOSE (Cost=83 Card=67 Bytes=5226) UPDATE OF 'DEPT' NESTED LOOPS (Cost=83 Card=67 Byte3=5226) TABLE ACCESS (FULL) OF 'DEPT_WORKING' (Cost=l Card=82 TABLE ACCESS (BY INDEX ROWID) OF 'DEPT' (Cost=l Card=8 INDEX (UNIQUE SCAN) OF 'EMP_PK' (UNIQUE) tkyte@TKYTE816> select deptno, dname, loc, last_updated from dept;

DEPTNO DNAME 10 SALES LOC NEW YORK LAST_UPDA 14-APR- Загрузка данных 20 30 40 50 60 ACCOUNTING CONSULTING FINANCE FINANCE FINANCE VIRGINIA VIRGINIA VIRGINIA VIRGINIA VIRGINIA 13-APR-01 14-APR-01 14-APR-01 02-APR-01 14-APR- 6 rows selected.

Поскольку рабочая таблица обычно не анализируется, мы используем подсказку оптимизатору, предлагающую использовать таблицу DEPT_WORKING как ведущую при соединении. Необходимо, чтобы таблица DEPT_WORKING просматривалась полностью. Мы будем изменять строку, соответствующую каждой строке в этой таблице, а выбирать ее из таблицы DEPT для изменения будем по индексу (это указано в строках плана, следующих за NESTED LOOPS). В большинстве случаев такой подход наиболее эффективен.

Загрузка данных из отчетов Иногда необходимо загрузить данные из текстового отчета. Эти данные представлены в определенном формате, но разбросаны по всему отчету. Например, мне пришлось загружать данные из отчета примерно такого вида:

3205679761 - Detailed Report July 01, 2000 21:24 Location : location data 1 Status : status 1 July 01, 2000 22:18 Location : location data 2 Status : status 3205679783 - Detailed Report July 01, 2000 21:24 Location : location data 3 Status : status data в следующую таблицу:

tkyte@TKYTE816> create table t 2 (serial_no varchar2(20), 3 date_time varchar2(50), 4 location varchar2(100), 5 status varchar2(100) 6 ) 7 / Table created.

Весьма вероятно, что с помощью ряда "хитроумных" триггеров, пакета PL/SQL для поддержки состояния и нескольких трюков SQLLDR этот отчет можно загрузить не Глава посредственно. В руководстве Oracle Server Utilities Guide приводится пример такой загрузки. Однако мне этот подход кажется крайне сложным и непрозрачным, не говоря уже о том, что придется устанавливать триггеры для таблицы для поддержки процесса загрузки. А что если таблицы используются по ходу загрузки для других задач? Для них триггеры не должны срабатывать, но нет никакого способа создать триггер, срабатывающий только при вставке строк с помощью утилиты SQLLDR. Поэтому мне захотелось найти более простой способ. Зачастую при загрузке сложных данных, как в представленном примере, быстрее, эффективнее и проще загрузить данные в рабочую таблицу, а затем обработать их с помощью небольшой хранимой процедуры. Именно так я и поступил с представленным выше отчетом. Я использовал следующий управляющий файл:

LOAD DATA INTO TABLE TEMP REPLACE (seqno RECNUM, text Position(1:1024)) для загрузки данных в таблицу, созданную оператором tkyte@TKYTE816> create table temp 2 (seqno int primary key, 3 text varchar2(4000)) 4 organization index 5 overflow tablespace data;

Table created.

Конструкция RECNUM в управляющем файле требует от утилиты SQLLDR подставлять порядковый номер текущей записи для соответствующего столбца при загрузке данных. В результате первой записи будет присвоен номер 1, сотой — номер 100 и т.д. Затем я использовал маленькую хранимую процедуру для переформатирования данных в требуемый вид. Эта процедура последовательно читает каждую входную строку из таблицы. Затем она просматривает строку и: • если строка содержит подстроку Detailed Report, выбирает из строки число и запоминает его в переменной L_SERIAL_NO;

• если строка содержит подстроку Location, данные о местонахождении помещаются в переменную L_LOCATION;

• если строка содержит подстроку Status, данные о состоянии помещаются в переменную L_STATUS и вставляется новая запись. В этот момент мы собрали все необходимые поля записи. Имеется порядковый номер, дата и время (см. следующий пункт списка) и местонахождение. • для других строк мы проверяем, может ли строка быть преобразована в дату. Если не может, мы ее вообще пропускаем. Это делается в обработчике соответствующей исключительной ситуации.

Загрузка данных Вот эта процедура:

tkyte@TKYTE816> create or replace procedure reformat 2 as 3 l_serial_no t.serial_no%type;

4 l_date_time t.date_time%type;

5 l_location t.location%type;

6 l_status t.status%type;

7 l_temp_date date;

8 begin 9 for x in (select * from temp order by seqno) 10 loop 11 if (x.text like '%Detailed Report%") then 12 l_serial_no := substr(x.text, 1, instr(x.text,'-')-l) ;

13 elsif (x.text like '%Location : %') then 14 l_location := substr(x.text, instr(x.text,':')+2);

15 elsif (x.text like '%Status %:%') then 16 l_status := substr(x.text, instr(x.text,':')+2);

17 insert into t (serial_no, date_time, location, status) 18 values (l_serial_no, l_date_time, l_location, l_status);

19 else 20 begin 21 l_temp_date := to_date (ltrim(rtxim(x. text)), 22 'Month dd, yyyy hh24:mi');

23 l_date_time := x.text;

24 exception 25 when others then null;

26 end;

27 end if;

28 end loop;

29 end;

30 / Procedure created.

Если сравнить этот объем работы с тем, что необходимо было бы проделать для создания сложных триггеров, запоминающих состояние между вставками, и координации работы этих триггеров с другими приложениями, обращающимися к таблице, вывод очевиден. Загрузка непосредственно в целевую таблицу, может, и сэкономит пару операций ввода/вывода, но соответствующий код будет ненадежным в силу сложности и уровня применяемых приемов. Из этого примера можно сделать вывод о том, что при решении сложной задачи надо стараться максимально уменьшить ее сложность. Один из способов добиться этого — использовать соответствующие задаче средства. В данном случае мы использовали PL/ SQL для написания простой процедуры, помогающей преобразовать данные в нужный формат после загрузки. Это — самый простой способ решения задачи. Не всегда правильно делать все с помощью утилиты SQLLDR, однако во многих случаях утилита SQLLDR оказывается более подходящим средством, чем программы на PL/SQL. Используйте то, что лучше всего подходит для решения конкретной задачи.

Глава Загрузка файла в поля типа LONG RAW или LONG Хотя тип данных LONG RAW и не рекомендуется использовать в Oracle8i, иногда он встречается в старых приложениях, и работать с ним все равно приходится. Иногда необходимо загрузить файл или файлы, в столбец типа LONG RAW, и вместо того, чтобы писать для этого специальную программу, хотелось бы использовать утилиту SQLLDR. Хорошая новость в том, что это можно сделать, а плохая — что это не слишком просто и не совсем подходит для загрузки большого количества файлов. Чтобы загрузить данные типа LONG RAW с помощью SQLLDR, в общем случае понадобится отдельный управляющий файл для каждого загружаемого файла (для каждой строки), если только все файлы не одинакового размера. Чтобы заставить утилиту SQLLDR это сделать, необходимо прибегнуть к хитрости. Придется работать с группой буферов размером 64 Кбайт или меньше и определить, сколько записей такого размера необходимо конкатенировать при загрузке. Допустим, требуется загрузить файл длиной 1075200 байт. Соответствующий управляющий файл может выглядеть так: (Числа в скобках справа, выделенные наклонным шрифтом, не являются частью управляющего файла, они используются для ссылок на строки.) options(bindsize=1075700, rows=l) Load Data Infile mydata.dat "fix 53760" concatenate 20 Preserve Blanks Into Table foo Append (id constant l,bigdata raw(1075200)) (1) (2) (3) (4) (5) (6) (7) (8) Фокус в том, что 53760* 20 = 1075200, и 53760 — самое большое число, являющееся делителем 1075200, меньшим, чем 64 Кбайт. Необходимо найти самое большое целое число, не превышающее 64 Кбайт, для использования в качестве "фиксированного" размера записи, а затем конкатенировать 20 таких записей для получения одной физической записи — содержимого файла. Итак, в строке (3) мы задали число 53760 как фиксированный размер входной записи. Это отключает обычную интерпретацию утилитой SQLLDR символа перевода строки как конца записи. Утилита SQLLDR теперь считает записью 53760 байт, независимо от содержащихся в них данных. Строка (4) указывает SQLLDR, что логическая запись (то, что загружается) будет состоять из 20 таких физических записей, соединенных вместе. Мы использовали параметр bindsize=1075700 в строке (1), чтобы задать буфер связывания такого размера, чтобы хватило на весь входной файл, с запасом (для других столбцов). Наконец, в строке (8) мы задаем размер буфера для этого столбца типа RAW (стандартно используется буфер размером 255 байт). Этот управляющий файл загрузит данные из файла MYDATA.DAT в таблицу FOO, помещая в столбец ID постоянное значение 1, а в столбец BIGDATA — содержимое Загрузка данных файла. Поскольку все это организовать непросто (найти самый большой делитель размера файла, не превышающий 64 Кбайт и т.д.), я написал небольшую переносимую программу на языке С, которая делает это автоматически. Мне часто приходится загружать содержимое файлов в столбцы типа LONG или LONG RAW и одновременно с этим заполнять другой столбец — первичный ключ. Поэтому я использую эту программу для создания управляющих файлов наподобие представленного выше. Она используется следующим образом:

g e n c t l иия_файла иия_таблицы иия_дпинного_столбца имя столбца_первичного_ключа значение_первичного_ключа R W | C A A HR и для получения представленного выше управляющего файла я вызвал ее так:

genctl mydata.dat foo bigdata id 1 RW > t e s t. c t l A Программа определила размер файла MYDATA.DAT, вычислила размер физической записи и автоматически сгенерировала соответствующий управляющий файл. Исходный код программы GENCTL можно найти на Web-сайте издательства Wrox по адресу http:// www.wrox.com.

Загрузка данных, содержащих символы новой строки Загрузка данных, которые включают символ новой строки, всегда была проблематичной в SQLLDR. Символ новой строки является стандартным признаком конца записи для SQLLDR, и обходные пути загрузки в прежних версиях не давали требуемой гибкости. К счастью, в Oracle 8.1.6 и более поздних версиях появились новые варианты работы с такими данными. Теперь загружать данные, содержащие символы новой строки, можно следующими способами: • загружать данные, в которых вместо символа новой строки подставлена другая последовательность символов, представляющая новую строку (например, поместить в текст подстроку \п вместо символов новой строки), и заменять этот текст вызовом CHR(10) с помощью SQL-функции в ходе загрузки;

• использовать атрибут FIX директивы INFILE и загружать файл в виде записей фиксированной длины;

• использовать атрибут VAR директивы INFILE и загружать файл в виде записей переменной длины, в которых первые несколько байтов каждой записи содержат длину записи;

• использовать атрибут STR директивы INFILE и загружать файл в виде записей переменной длины, в которых конец записи представлен заданной последовательностью символов, а не символом новой строки. Мы продемонстрируем все эти способы.

Глава Использование другого символа вместо символа новой строки Это — простой метод, если можно управлять генерацией загружаемых данных. Если данные можно легко преобразовать в требуемый формат при создании файла данных, этот способ прекрасно подходит. Идея в том, чтобы применять к данным SQL-функцию при загрузке в базу данных, заменяя некоторую строку символов символом новой строки. Давайте добавим еще один столбец в таблицу DEPT:

tkyte@TKYTE816> alter table dept add comments varchar2(4000);

Table altered.

Мы будем использовать этот столбец для загрузки в него текста. Вот как может выглядеть управляющий файл, содержащий встроенные данные:

LOAD DATA INFILE * INTO TABLE DEPT REPLACE FIELDS TERMINATED BY ',' TRAILING NULLCOLS (DEPTNO, DNAME "upper(:dname) ", LOC "upper(:loo)", LAST_UPDATED "my_to_date(:last_updated)", COMMENTS "replace(:comments, '\n', chr(10))" ) BEGINDATA 10,Sales,Virginia,01-april-2001,This is the Sales\nOffice in Virginia 20,Accounting,Virginia,13/04/2001,This is the Accounting\nOffice in Virginia 30,Consulting,Virginia,14/04/2001,This is the Consulting\nOffice in Virginia 40,Finance,Virginia,987268297,This is the Finance\nOffice in Virginia Хотелось бы обратить внимание на одну важную вещь. Представленный выше управляющий файл будет работать только на DOS-совместимых платформах, таких как Windows NT. На платформе UNIX необходимо использовать такое описание поля комментариев:

COMMENTS "replace(:comments, '\\n', chr(10))" Обратите внимание, что при вызове функции replace пришлось использовать \\n, a не просто \n, поскольку в UNIX утилита SQLLDR распознает \n как символ новой строки, а не строку из двух символов. Мы использовали конструкцию \\n для получения строковой константы \n в управляющем файле утилиты SQLLDR на платформе UNIX. При запуске утилиты SQLLDR с представленным выше управляющим файлом (при необходимости измененным соответствующим образом для работы в ОС UNIX), в таблицу DEPT будут загружены следующие данные:

tkyte@TKYTE816> select deptno, dname, comments from dept;

Загрузка данных DEPTNO DNAME COMMENTS Office in Virginia 20 ACCOUNTING 30 CONSULTING 40 FINANCE This is the Accounting Office in Virginia This is the Consulting Office in Virginia This is the Finance Office in Virginia Использование атрибута FIX Для решения задачи можно также использовать атрибут FIX. Для его использования загружаемые данные должны быть представлены в виде записей фиксированной длины. В каждой записи входного набора данных будет одно и то же количество байтов. Это особенно подходит для данных в фиксированных позициях. Именно эти данные обычно состоят из записей фиксированной длины. При использовании данных в "свободном формате", с разделителями, маловероятно, что записи будут иметь одинаковую длину (смысл использования данных с разделителями в том, чтобы каждая запись имела именно такой размер, какой необходим для размещения ее данных). При использовании атрибута FIX необходимо указывать конструкцию INFILE, поскольку атрибут этот относится к конструкции INFILE. Кроме того, данные при этом должны находиться во внешнем файле, а не в управляющем. Итак, предполагая, что данные представлены в виде записей фиксированной длины, получаем следующий управляющий файл:

LOAD DATA INFILE demo17.dat "fix 101" INTO TABLE DEPT REPLACE FIELDS TERMINATED BY ', ' TRAILING NULLCOLS (DEPTNO, DNAME "upper(:dname)", LOC "upper(:loc)", LAST_UPDATED "my_to_date(:last_updated)", COMMENTS ) Здесь указано, что файл данных будет состоять из записей длиной 101 байт. В запись включается завершающий символ новой строки, если он есть. В данном случае символ новой строки не имеет специального значения в файле данных. Это просто еще один символ, который надо (или не надо) загружать. Это надо понять — символ новой строки в конце записи (если он там есть) будет частью записи. Чтобы глубоко это осознать, необходима утилита для представления содержимого файла на экране в таком виде, чтобы можно было увидеть фактические данные. Чтобы такая утилита была переноси Глава мой и работала на любой платформе, мы будем реализовывать ее средствами СУБД. Можно написать подпрограмму, которая будет использовать переменную типа BFILE для чтения файла операционной системы и выдавать его посимвольно на экран, показывая, где находятся символы возврата каретки (ASCII-код 13), перевода строки (ASCIIкод 10), табуляции (ASCII-код 9) и другие специальные символы. На языке PL/SQL эта подпрограмма может выглядеть так:

tkyte@TKYTE816> create or replace 2 procedure file_dump (p_directory in varchar2, 3 p_filename in varchar2) 4 as 5 type array is table of varchar2(5) index by binary_integer;

6 7 l_chars array;

8 l_bfile bfile;

9 l_buffsize number default 15;

10 l_data varchar2(30);

11 l_len number;

12 l_offset number default 1;

13 l_char char(l);

14 begin 15 — специальные случаи - выдаем "управляющие последовательности", — чтобы было понятно 16 l_chars(0) := '\0';

17 l_chars(13) := '\r";

18 l_chars(10) :== '\n';

19 l_chars(9) := '\t';

20 21 l_bfile := bfilename(p_directory, p_filename);

22 dbms_lob.fileopen(l_bflie);

23 24 l_len := dbms_lob.getlength(l_bfile);

25 while(l_offset < l_len) 26 loop 27 — выдаем смещение от начала файла в байтах 28 dbms_output.put(to_char(l_offeet,'fm000000') || '-' || 29 to_char(l_offset+l_buffsize-l, 'fmOOOOOO')) ;

30 31 — теперь читаем BUFFSIZE байтов из файла для показа 32 l_data := utl_raw.cast_to_varchar2 33 (dbms_lob.substr(l_bfile, l_buffsize, l_offset)) ;

34 35 — цикл по символам 36 for i in 1.. length(l_data) 37 loop 38 l_char := substr(l_data,i,l);

39 40 — если символ — печатный, просто выдаем его 41 if ascii (l_char) between 32 and 126 42 then Загрузка данных 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 dbms_output.put(lpad(l_char,3));

— если это один из представленных выше специальных — символов, — выдаем вместо него заданный текст elsif (l_chars.exists(ascii(l_char))) then dbms_output.put(lpad(l_chars(ascii(l_char)), 3)) ;

— если это двоичные данные, выдаем их в — шестнадцатиричном виде else dbms_output.put(to_char(ascii(l_char),'0X'));

end if;

end loop;

dbms_output.new_line;

l_offset := l_offset + l_suffsize;

end loop;

dbms_lob.close(l_bfile);

end;

/ Procedure created.

Подробнее о пакете DBMS_LOB и данных типа BFILE можно прочитать в приложении А в конце книги. Итак, если взять файл данных следующего вида: tkyte@TKYTE816> host type demo17.dat 10,Sales,Virginia,01-april-2001,This is the Sales Office in Virginia 20,Accounting,Virginia,13/04/2001,This is the Accounting Office in Virginia 30,Consulting,Virginia,14/04/2001 12:02:02,This is the Consulting Office in Virginia 40,Finance,Virginia,987268297,This is the Finance Office in Virginia tkyte@TKYTE816> 000001-000015 000016-000030 000031-000045 000046-000060 000061-000075 000076-000090 000091-000105 000106-000120 000121-000135 000136-000150 000151-000165 000166-000180 000181-000195 e x e c file_dump('MY_FILES', ' d e m o l 7. d a t ' ) ;

10,S ales, Virgin ia,0 l-april-200 1, Th i s is the S ales \r\n O f f i c e in Vir ginia \r \n 2 0 nting,Vir 13/0 4/200 is the A ing \r\n O f f i Virginia, g 1 c c A i, e e cou ia, This ount in c n Глава 9 \r\n3 0, C o n su in g, Vi rginia, 14/04/2001 12:0 2:02, Th i s is th e Co nsulting\r\nO ffice in Virgin i a \r\n4 0,Fi nance,V i r g in i a, 9872682 97, This is the F i na n ce\r\n O f f i c e in Virginia 1 t \r \n 000196-000210 000211-000225 000226-000240 000241-000255 000256-000270 000271-000285 000286-000300 000301-000315 000316-000330 000331-000345 000346-000360 000361-000375 000376-000390 000391- PL/SQL procedure successfully completed.

то с помощью этой утилиты можно убедиться, что все записи имеют длину 101 байт. Если посмотреть на строку данных, начинающуюся с 000091-000105, в конце ее можно обнаружить последовательность (\r\n). Поскольку мы знаем, что последний символ в этой строке находится в позиции 105 от начала файла, то можем отсчитать символы обратно и убедиться, что символ \n имеет смещение 101. Далее в строке, начинающейся с 000196-000210, мы по смещению 202 от начала файла видим еще один перевод строки, представляющий конец записи. Теперь, зная точно, что все записи имеют длину 101 байт, мы готовы загружать их с помощью представленного выше управляющего файла с конструкцией FIX 101. В результате получим:

tkyte@TKYTE816> select COMMENTS "This is the Sales Office in Virginia "" || comments || '"' comments from dept;

"This is the Accounting Office in Virginia "This is the Consulting Office in Virginia "This is the Finance Office in Virginia Обратите внимание, что каждая загруженная строка завершается символом новой строки — добавленная нами завершающая кавычка является первым символом в новой Загрузка данных строке (последним символом в поле COMMENTS является символ новой строки, поэтому кавычка и выдается в новой строке). Это произошло потому, что в каждой входной записи символ новой строки находится в позиции 101 и утилита SQLLDR не считает его разделителем записей. Если это не подходит, надо брать данные в кавычки и использовать конструкцию OPTIONALLY ENCLOSED BY, чтобы утилита SQLLDR загружала только данные в кавычках, без символа новой строки (не забудьте при этом добавить дополнительное место в каждой записи в атрибуте FIX). При этом завершающий символ новой строки не будет загружаться как часть данных. Итак, если изменить управляющий файл следующим образом:

LOAD DATA INFILE demo18.dat "fix 101" INTO TABLE DEFT REPLACE FIELDS TERMINATED BY ',' OPTIONALLY ENCLOSED BY '"' TRAILING NULLCOLS (DEPTNO, DNAME "upper(:dname)", LOC "upper(:loc)", LAST_UPDATED "my_to_date(:last_updated)", COMMENTS ) и изменить файл данных так, чтобы он имел следующий вид:

С:\sqlldr>TYPE demo18.dat 10,Sales,Virginia,01-april-2001,"This is the Sales Office in Virginia" 20,Accounting,Virginia,13/04/2001,"This is the Accounting Office in Virginia" 30,Consulting,Virginia,14/04/2001 12:02:02,"This is the Consulting Office in Virginia" 40,Finance,Virginia,987268297,"This is the Finance Office in Virginia" с текстом в кавычках, он будет загружен следующим образом:

tkyte@TKYTE816> select '"' COMMENTS "This is the Sales Office in Virginia" "This is the Accounting Office in Virginia" "This is the Consulting Office in Virginia" "This is the Finance Office in Virginia" || comments || '"' comments from dept;

Предупреждаю тех, кому повезло работать и в ОС Windows NT, и в ОС UNIX. На этих платформах признаки конца строки различны. В ОС UNIX это просто \n. В ОС Глава Windows NT это \r\n. Предположим, мы передали файлы из предыдущего примера с помошью ftp-клиента на UNIX-машину. Если выполнить затем процедуру FILE_DUMP, можно понять, с какой проблемой придется столкнуться:

ops$tkyte@ORA8I.WORLD> EXEC file_dump('MY_FILES', ' d e m o 1 7. d a t ' ) ;

000001-000015 10, Sales, Virgin 000016-000030 ia,0 1-april-200 000031-000045 1, T h is is the S 000046-000060 ales \nO f f i c e in 000061-000075 Virginia 000076-000090 000091-000105 \n 2 0, Ace 000106-000120 ounting,Virgini 000121-000135 a, 13/04/2001, Th 000136-000150 is is the Accou 000151-000165 nting\nOffice in 000166-000180 Virginia 000181-000195 000196-000210 \n3 0,Consultin 000211-000225 g, Virginia, 14/0 000226-000240 4/2001 12:02:02 000241-000255,This is the Co 000256-000270 nsulting\n Office 000271-000285 in Virginia 000286-000300 \n 40 000301-000315 Pi nance, Virgini 000316-000330 a, 987268297, Thi 000331-000345 s is the Financ 000346-000360 e\n O f f i c e in Vir 000361-000375 g i n i a 000376-000390 000391-000405 \n P / Q procedure successfully completed. LS L Файл имеет другой размер, как и записи в нем. Каждая пара \r\n теперь представлена символом \n. В этом примере достаточно изменить значение атрибута FIX с 101 на 99, но только потому, что в каждой записи одинаковое количество строк! Длина каждой записи просто сократилась на 2 байта. Если бы в некоторых записях было три строки, их длина сократилась бы на три, а не на два байта. При этом файл изменился бы так, что записи не имели бы больше фиксированной длины. При использовании атрибута FIX убедитесь, что файл создается и загружается на однородных платформах (UNIX и UNIX, или Windows и Windows). При передаче файлов с одной из этих систем на другую они наверняка перестанут загружаться.

Использование атрибута VAR Еще один метод загрузки данных со встроенными символами новой строки — с помощью атрибута VAR. При использовании этого формата каждая запись начинается с фиксированного количества байтов, в которых указана ее суммарная длина. С помощью Загрузка данных этого формата можно загружать записи переменной длины, содержащие символы новой строки, но только если в начале каждой записи указана ее длина. Итак, если использовать управляющий файл следующего вида:

LOAD DATA INFILE demo19.dat "var 3" INTO TABLE DEPT REPLACE FIELDS TERMINATED BY ',' TRAILING NULLCOLS (DEPTNO, DNAME "upper(:dname)", LOC "upper(:loc)", LAST_UPDATED COMMENTS ) "my_to_date(:last_updated)", то атрибут var 3 будет означать, что первые три байта каждой входной записи содержат ее длину. Если взять файл данных следующего вида:

C:\sglldr>type demol9.dat 07110,Sales,Virginia,01-april-2001,This is the Sales Office in Virginia 0762:0, Accounting,Virginia, 13/04/2001,This is the Accounting Office in Virginia 08730,Consulting,Virginia,14/04/2001 12 :02:02,This is the Consulting Office in Virginia 07140,Finance,Virginia,987268297,This is the Finance Office in Virginia то их можно успешно загрузить с помощью представленного управляющего файла. В этом файле загружаемых данных четыре записи. Первая запись начинается с 071, т.е. следующим 71 байт представляет первую запись. В эти 71 байт входит и завершающий символ новой строки после слова Virginia. Следующая запись начинается с 078. В ней 78 байт, и так далее. Используя файл данных такого формата, очень легко загрузить данные со встроенными символами новой строки. И в этом случае, если приходится работать с UNIX и NT (показан пример для NT, где новая строка представлена двумя символами), надо уточнять длину каждой записи. В ОС UNIX представленный выше файл данных придется изменить, задав 69, 76, 85 и 69 в качестве длины записей.

Использование атрибута STR Это, наверное, самый гибкий метод загрузки данных, содержащих символы новой строки. С помощью атрибута STR можно задать новую последовательность символов, представляющую конец строки. Это позволяет создать файл данных, в котором конец каждой записи помечен какими-либо специальными символами, и символ новой строки при этом теряет свое значение. Я предпочитаю использовать несколько символов, специальный маркер, а затем символ новой строки. Это упрощает поиск конца записи при просмотре файла данных в Глава текстовом редакторе или с помощью утилит командной строки, поскольку каждая запись по-прежнему завершается символом новой строки. Атрибут STR задается в шестнадцатеричном виде, а автоматически преобразовать строку в шестнадцатеричный вид проще всего с помощью SQL и пакета UTL_RAW (подробнее о пакете UTL_RAW см. в приложении о стандартно поставляемых пакетах в конце книги). Например, при работе в Windows NT, где признаком конца строки является последовательность CHR(13) || CHR(10) (возврат каретки/перевод строки), а в качестве специального маркера выбран символ конвейера, |, можно преобразовать строку так:

tkyte@TKYTE816> select utl_raw.cast_to_raw('|'||chr(13)||chr(10)) from dual;

UTL_RAW.CAST_TO_RAW('|' || CHR(13) || CHR(10)) 7C0D0A В качестве значения атрибута STR надо задать X'7C0D0A". Для загрузки можно создать управляющий файл следующего вида:

LOAD DATA INFILE demo20.dat "str X'7C0D0A'" INTO TABLE DEPT REPLACE FIELDS TERMINATED BY TRAILING NULLCOLS (DEPTNO, DNAME "upper(:dname) ", LOC "upper(:loc)", LAST_UPDATED "my_to_date(:last_updated)", COMMENTS ) Если загружаемые данные имеют следующий вид:

С:\sqlldr>type demo20.dat 10,Sales,Virginia,01-april-2001,This is the Sales Office in Virginia| 20,Accounting,Virginia,13/04/2001,This is the Accounting Office in Virginia| 30,Consulting,Virginia,14/04/2001 12:02:02,This is the Consulting Office in Virginia| 40,Finance,Virginia,987268297,This is the Finance Office in Virginia| так что каждая запись данных завершается последовательностью |\r\n, то с помощью представленного выше управляющего файла их можно корректно загрузить.

Как упростить обработку символов новой строки Итак, мы рассмотрели четыре способа загрузки данных со встроенными символами новой строки. В следующем разделе мы используем один из них, атрибут STR, при со Загрузка данных здании универсальной утилиты выгрузки данных, полностью решающей проблему с символами новой строки в текстах. Кроме того, всегда надо учитывать, как я уже упоминал в предыдущих примерах, что в Windows (во всех версиях), текстовые файлы могут завершаться символами \r\n (ASCIIкод 13 + ASCII-код 10, возврат каретки /перевод строки). В управляющем файле (в задаваемом для атрибутов FIX и VAR количестве байтов, а также в строке значения для атрибута STR) должно быть учтено, что символ \r является частью записи. Например, если взять любой из представленных выше файлов данных, содержащих символы \r\n, и передать их по протоколу FTP на ОС UNIX в стандартном текстовом (ASCII) режиме, каждая пара символов \r\n будет преобразована в \n. Управляющий файл, только что работавший в Windows, уже не позволит загрузить данные. Об этом надо всегда помнить при создании управляющего файла.

Выгрузка данных Утилита SQLLDR, да и вообще ни одно из поставляемых в составе СУБД Oracle инструментальных средств, не позволяет выгрузить данные в формате, подходящем для загрузки с помощью SQLLDR. Это можно использовать при переносе данных из одной системы в другую без применения утилит ЕХР/IМР. Утилиты EXP/IMP позволяют эффективно переносить средние объемы данных из одной системы в другую. Поскольку утилита IMP не обеспечивает непосредственный импорт и не позволяет распараллелить построение индексов, перенос данных с помощью SQLLDR с последующим параллельным созданием индексов без журнализации может выполняться на несколько порядков быстрее. Создадим небольшую утилиту на языке PL/SQL, которую можно будет использовать для выгрузки данных на сервере в формате, подходящем для загрузки с помощью SQLLDR. Кроме того, аналогичные средства на базе Рго*С и утилиты SQL*Plus представлены на Web-сайте издательства Wrox. Утилита на PL/SQL подходит для большинства случаев, но реализация на Рго*С обеспечивает более высокую производительность, а также пригодится, если необходимо сгенерировать файлы данных на клиенте (а не на сервере, где их будет генерировать PL/SQL-утилита). Создаваемый пакет имеет следующую спецификацию:

tkyte@TKYTE816> create or replace package unloader 2 as 3 function run(p_query in varchar2, 4 p_tname in varchar2, 5 p_mode in varchar2 default 'REPLACE', 6 p_dir in varchar2, 7 p_filename in varchar2, 8 p_separator in varchar2 default ', ', 8 p_enclosure in varchar2 default " ", 10 p_terminator in varchar2 default '|') 11 return number;

12 end;

13 / Package created.

Глава Параметры функции имеют следующее назначение:

/* Функция run — выгружает результаты запроса в файл и создает управляющий файл для загрузки этих данных в другую таблицу p_query = SQL-запрос для "выгрузки". Запрос может быть практически любым. p_tname = Таблица, в которую надо загружать данные. Это имя будет указано в управляющем файле. p_mode = REPLACE|APPEND|TRUNCATE — способ загрузки данных p_dir = Каталог, в который будут записаны файлы.ctl и.dat. p_filename = Имя файла, в который надо записывать. Я добавляю к этому имени суффиксы.ctl и.dat p_separator = Разделитель полей, по умолчанию — запятая. p_enclosure = Символ, в который заключается каждое поле. p_terminator= Признак конца строки. Мы будем использовать его, чтобы можно было выгружать и затем загружать данные со встроенными символами новой строки. Стандартное значение — '|\n' (символы конвейера и перевода строки);

для NT можно использовать '|\r\n'. Это значение надо изменять, только если точно известно, что оно есть в загружаемых данных. Я всегда добавляю в конце последовательности символы конца строки для соответствующей ОС, но это не обязательно. */ Тело пакета представлено ниже. Для создания управляющего файла и файла данных используется пакет UTL_FILE. He забудьте почитать о настройке пакета UTL_FILE в Приложении А. Если не установить соответствующим образом параметр в файле init.ora, пакет UTL_FILE работать не будет. Для динамического выполнения любого запроса используется пакет DBMS_SQL (подробнее о нем см. в соответствующем разделе приложения). В запросах используется один тип данных — VARCHAR2(4000). Поэтому этот метод нельзя использовать для выгрузки больших объектов размером более 4000 байт. Но выгружать до 4000 байт любого большого объекта с помощью функции DBMS_LOB.SUBSTR все же можно. Кроме того, поскольку в качестве единственного типа результатов используется VARCHAR2, мы можем обрабатывать столбцы типа RAW длиной до 2000 байт (4000 шестнадцатиричных цифр) — этого вполне достаточно для всех данных, кроме данных типа LONG RAW и больших двоичных объектов. Представленный ниже пакет решает проблему в 90 процентах случаев. Немного потрудившись и используя другие средства, описанные в книге, например пакет LOB_IO, представленный в главе 18, можно расширить его для поддержки всех типов данных, в том числе больших объектов любого размера.

tkyte@TKYTE816> create or replace package body unloader 2 as 3 4 5 g_theCursor integer default dbms_sql.open_cursor;

6 g_descTbl dbms_sql.desc_tab;

7 g_nl varchar2(2) default chr(10);

Загрузка данных Это объявления ряда глобальных переменных, которые используются в пакете. Глобальный курсор открывается один раз, при первом обращении к пакету, и остается открытым до завершения сеанса. Это избавляет от необходимости открывать курсор при каждом обращении к пакету. G_DESCTBL — это PL/SQL-таблица, в которую будут попадать результаты вызова DBMS_SQL.DESCR1BE. G_NL — это последовательность, представляющая новую строку. Мы будем использовать ее в строках, где надо оставить встроенные символы перевода строк. Для работы в Windows ничего настраивать не надо — подпрограммы пакета UTL_FILE распознают символ CHR(10) в переданной строке и автоматически преобразуют его в последовательность возврат каретки/перевод строки. Далее идет простая функция, используемая для преобразования символа в шестнадцатеричный вид. Для этого используются встроенные функции:

9 10 11 12 13 14 15 function to_hex(p_str in varchar2) return varchar2 is begin return to_char(ascii(p_str), 'fm0x');

end;

Ниже представлена процедура создания управляющего файла для загрузки выгруженных данных. Она использует для этого таблицу DESCRIBE, генерируемую вызовом dbms_sql.describe_columns. Процедура учитывает особенности ОС, в частности то, использует ли ОС последовательность возврат каретки/перевод строки (это учитывается при задании атрибута STR) и какой символ является разделителем каталогов в именах файлов: \ или /. Для этого просматривается переданное при вызове имя каталога. Если это имя содержит символ \, значит, мы работаем в ОС Windows, иначе — в ОС UNIX:

16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 /* */ procedure dump_ctl(p_dir p_filename p_tname p_mode p_separator p_enclosure p_terminator in in in in in in in varchar2, varchar2, varchar2, varchar2, varchar2, varchar2, varchar2) is l_output l_sep l_str l_path utl_file.file_type;

varchar2(5);

varchar2(5);

varchar2(5);

begin if (p_dir like '%\%') then — Windows platforms — l_str := chr(13) || chr(10);

36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 Глава 9 if (p_dir not like '%\' AND p_filename not like '\%') then l_path := '\';

end if;

else l_str := chr(10);

if (p_dir not like '%/' AND p_filename not like '/%') then l_path := '/';

end if;

end if;

l_output := utl_file.fopen(p_dir, p_filename || '.ctl', 'w');

utl_file.put_line(l_output, 'load data');

utl_file.put_line(l_output, 'infile ''' || p_dir || l_path || p_filename || '.dat" "str x''' || utl_raw.cast_to_raw(p_terminator || l_str ) || '''"');

utl_file.put_line(l_output, 'into table ' || p_tname);

utl_file.put_line(l_output, p_mode);

utl_file.put_line(l_output, 'fields terminated by x''' || to_hex(p_separator) || ''' enclosed by X''' || to_hex (p_enclosure) || ''' ' ) ;

utl_file.put_line(l_output, '(');

for i in 1.. g_descTbl.count loop if (g_descTbl(i).col_type = 12 ) then utl_file.put(l_output, l_sep || g_descTbl(i).col_name || ' date ''ddmmyyyyhh24miss'' ' ) ;

else utl_file.put(l_output, l_sep || g_descTbl(i).col_name || ' char(' || to_char(g_descTbl(i).col_max_len*2) || ' )');

end if;

l_sep := ', ' || g_nl;

end loop;

utl_file.put_line(l_output, g_nl || ') ') ;

utl_file.fclose(l_output);

end;

Вот простая функция, выдающая переданную строку в заданных "кавычках". Обратите внимание, что она не просто берет строку в кавычки, но и удваивает все символы кавычек, входящие в строку, так что они сохраняются при загрузке:

79 80 81 82 function quote(p_str in varchar2, p_enclosure in varchar2) return varchar2 is Загрузка данных 83 84 85 86 87 begin return p_enclosure || r e p l a c e ( p _ s t r, p_enclosure, p_endosure ;

end;

|| p_enolosure | | p_enclosure) Теперь переходим к основной функции, RUN. Поскольку она достаточно большая, комментарии будут делаться по ходу:

88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 function run(p_query in varchar2, p_tnaroe in varchar2, p_mode in varchar2 default p_dir in varchar2, p_filename in varchar2, p_separator in varchar2 default p_enclosure in varchar2 default p_terminator in varchar2 default is l_output utl_file.file_type;

l_columnValue varchar2 (4000) ;

l_colCnt number default 0;

l_separator varchar2(10) default ' ';

l_cnt number default 0;

l_line long;

l_datefmt varchar2(255) ;

l_descTbl dbms_sql.desc_tab;

begin 'REPLACE', ',', '"', '|') return number Текущий формат даты мы сохраним в переменной, чтобы можно было заменить его форматом, сохраняющим дату и время при сбросе данных на диск. Таким образом, мы будем сохранять время суток при выдаче дат. Затем зададим обработчик исключительных ситуаций, чтобы восстанавливать значение NLS_DATE_FORMAT в случае ошибки:

107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 select into from where /* Устанавливает формат даты а виде большой строки цифр. Тем самим снимаются все проблемы NLS и сохраняется не только дата, но и время. */ execute immediate 'alter session set nls_date_format=''ddmmyyyyhh24miss''';

/* Создаем блок с обработчиком исключительных ситуаций, чтобы в случае ошибки можно было восстановить формат даты. */ begin value l_datefmt nls_session_parameters parameter = 'NLS_DATE_FORMAT';

Глава Теперь разберем и опишем запрос. Присваивание переменной G_DESCTBL значения L_DESCTBL делается для "сброса" глобальной таблицы, иначе, кроме данных текущего запроса, она может содержать результаты предыдущего вызова DESCRIBE. После этого вызываем процедуру DUMP_CTL для создания управляющего файла:

124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 /* Разбираем и описываем запрос. Присваиваем descTbl пустую таблицу, так что ее атрибут.count будет давать правильное значение. */ dbms_sql.parse(g_theCursor, p_query, dbms_sql.native);

g_descTbl := l_desoTbl;

dbms_sql.describe_columns(g_theCursor, l_colCnt, g_descTbl);

/* Создаем управляющий файл для загрузки этих данных а указанную таблицу. */ dump_ctl(p_dir, p_filename ( p_tname, p_mode, p_separator, p_endosure, p_terminator);

/* Связываем каждый столбец с varchar2(4000). Нас не интересует, выбирается ли число, дата или данные другого типа. Все может быть неявно преобразовано в строку. */ Теперь все готово для сброса данных на диск. Начнем с объявления каждого выбираемого столбца как имеющего тип VARCHAR2(4000). Данные типа NUMBER, DATE, RAW и всех остальных типов будут преобразовываться в VARCHAR2. Сразу после этого выполним запрос, чтобы подготовиться к выборке данных:

145 146 147 148 149 150 151 152 for i in 1.. l_colCnt loop dbms_sql.define_column(g_theCursor, i, l_columnValue, 4000);

end loop;

/* Выполняем запрос, игнорируя результаты вызова execute. Они имеют смысл только для операторов вставки, изменения или удаления. */ Открываем файл данных для записи, выбираем все строки результатов запроса и выдаем их в файл данных:

153 154 155 156 157 158 159 l_cnt := dbms_sql.execute(g_theCursor);

/* Открываем файл для записи результатов и выдаем их туда через разделитель. */ l_output := utl_file.fopen(p_dir, p_filename || '.dat', 'w', Загрузка данных 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 32760) ;

loop exit when (dbms_sql.fetch_rows(g_theCursor) <= 0) ;

l_separator := '';

l_line := null;

for i in 1.. l_colCnt loop dbms_sql.column value(g theCursor, i, l_columnValue);

l_line := l_line || l_separator || quote(l_columnValue, p_enclosure);

l_separator := p_separator;

end loop;

l_line := l_line || p_terminator;

utl_file.put_line(l_output, l_line);

l_cnt := l_cnt+l;

end loop;

utl_file.fclose(l_output);

Наконец, мы восстанавливаем формат даты (обработчик исключительных ситуаций сделает то же самое, если в представленном выше коде будет любая ошибка) и завершаем работу:

177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 /* Теперь восстанавливаем формат даты и возвращаем количество строк, записанных в файл данных. */ execute immediate 'alter session set nls_date_format=''' || l_datefmt || '''';

return l_cnt;

exception /* В случае ЛЮБОЙ ошибки восстанавливаем формат даты и повторно возбуждаем исключительную ситуацию. */ when others then execute immediate 'alter session set nls_date_format=''' || l_datefmt || '''';

RAISE;

end;

end run;

end unloader;

/ Package body created.

Теперь эту функцию можно использовать так, как показано ниже. Для выполнения следующих действий, естественно, необходимо предоставить текущему пользователю или роли привилегию SELECT для таблицы SCOTT.EMP.

Глава 9 table emp;

tkyte@TKYTE816> drop Table dropped.

t k y t e @ T K Y T E 8 1 6 > c r e a t e table emp as select * from scott.emp;

T a b l e created. t k y t e @ T K Y T E 8 1 6 > alter table emp add resume r a w ( 2 0 0 0 ) ;

Table altered. tkyte@TKYTE816> update emp 2 set r e s u m e = r p a d ( ' O 2 ', 4000, '02');

14 r o w s u p d a t e d. t k y t e @ T K Y T E 8 1 6 > u p d a t e emp 2 set e n a m e = s u b s t r ( e n a m e, 1, 2) 3 14 r o w s u p d a t e d. t k y t e @ T K Y T E 8 1 6 > set s e r v e r o u t p u t on tkyte@TKYTE816> declare 2 l_rows number;

3 begin 4 l_rows := u n l o a d e r. r u n 5 (p_query => 'select * from emp o r d e r by erapno', 6 p_tname => 'emp', 7 p_mode => 'replace', 8 P_dir => 'c:\temp', 9 p_filename => 'emp', 10 p_separator => ',', 11 p_enclosure => '"', 12 p_terminator => '~');

13 14 d b m s _ o u t p u t. p u t _ l i n e ( t o _ c h a r ( l _ r o w s ) || 15 ' rows extracted to a s c i i f i l e ' ) ;

16 end;

17 / 14 rows e x t r a c t e d to ascii file P L / S Q L p r o c e d u r e s u c c e s s f u l l y completed. chr(10) || '"' || '"' || || s u b s t r ( e n a m e, 3 ) ;

Вот какой управляющий файл будет сгенерирован в результате.

Чисел в круглых скобках справа, выделенных наклонным шрифтом, на самом деле в файле нет. Они используются для ссылок в тексте: load data i n f i l e 'c:\temp\emp.dat' "str х'7Е0D0А'" into table emp replace fields terminated by X'2c' enclosed by X'22' (1) (2) (3) (4) (5) Загрузка данных ( EMPNO char(44), ENAME char(20), JOB char(18), MGR char(44), HIREDATE date 'ddmmyyyyhh24miss', SAL char(44), COMM char(44), DEPTNO char(44), RESUME char(4000) ) (6) (7) (В) (9) (lO) (11) (12) (13) (14) (15) (16) Хотелось бы обратить внимание на следующее. • Строка (2). Используется новое средство Oracle 8.1.6, атрибут STR. Можно указать, какой символ или какая строка используется как признак конца записи. Это позволяет загружать данные со встроенными символами перевода строк. Указанная выше строка x'7E0D0A' — это просто тильда, за которой идут символы новой строки. О Строка (5). Используются заданные разделители и кавычки. Я не использую конструкцию OPTIONALLY ENCLOSED BY, поскольку в кавычки, после удвоения соответствующих символов в данных, будет заключаться каждое поле. • Строка (11). Используется длинный "числовой" формат даты. Последствия этого двояки. Во-первых, решаются проблемы NLS для дат, а во-вторых, в полях дат сохраняется компонент времени. • Строка (15). Используются данные типа char(4000). По умолчанию утилита SQLLDR будет использовать для полей тип данных char(255). Я удвоил длину каждого поля в управляющем файле. Это гарантирует, что утилита SQLLDR сможет прочитать данные без усечения полей. Удвоение сделано для поддержки данных типа RAW, которые мы получаем в формате VARCHAR2 (в шестнадцатеричном виде). Т.е. каждый байт исходных данных представляется двумя символами. Представленный выше код генерирует следующий файл данных (с расширением.dat):

"7369", "SM"",""ITH",CLERK","7902", "17121980000000", "800", " ", "20", "02020202020202020202020202 0202020202020202020...<существенная часть удалена>...0202020202020202"~ "7499","AL"" ""LEN","SALESMAN","7698","20021981000000","1600","300","30","020202020202020202 02020202020202020202...Существенная часть удалена>...0202020202020202"~ Обратите внимание на следующее в этом файле данных. • Каждое поле взято в указанные кавычки. • Поле ENAME, в которое мы с помощью оператора UPDATE внесли кавычки и символ \n, содержат встроенный перевод строки. Кроме того, символы кавычек удвоены, чтобы они остались в данных после загрузки. • Данные типа DATE выгружены в виде больших чисел.

Глава • Добавленные поля типа RAW сохранились и выданы в шестнадцатиричном виде. • Каждая запись в файле завершается тильдой (~), как и требовалось. Теперь легко загрузить эти данные с помощью утилиты SQLLDR. При вызове SQLLDR можно добавить необходимые опции командной строки. Эту функцию можно использовать для решения задач, которые сложно или невозможно решить по-другому. Например, если необходимо переименовать столбец ENAME в таблице ЕМР в EMP_NAME, можно сделать так, как показано ниже. Выгружаем данные для последующей загрузки с помощью SQLLDR. Обратите внимание, как мы "переименовываем" столбец, задав псевдоним EMP_NAME в списке выбора оператора SELECT после ENAME. В результате управляющий файл будет создан со столбцом EMP_NAME вместо ENAME. Затем я удаляю данные из таблицы, удаляю неправильно названный столбец и добавляю столбец с новым именем. После этого данные загружаются обратно в таблицу. Этот подход предпочтительней по сравнению с более простым: "добавить столбец, изменить его данные, взяв их из старого, удалить старый столбец", если таблицу надо коренным образом реорганизовывать или объем данных в сегментах отката и журнале повторного выполнения, генерируемых при подобной операции, имеет значение. Можно вызвать утилиту SQLLDR в режиме непосредственной загрузки и вообще избежать генерации данных отката и повторного выполнения при загрузке. Вот как это делается, по шагам:

tkyte@TKYTE816> declare 2 l_rows number;

3 begin 4 l_rows := unloader.run 5 (p_query => 'select EMPNO, ENAME EMP_NAME, 6 JOB, MGR, HIREDATE, 7 SAL, COMM, DEPTNO 8 from emp 9 order by empno', 10 p_tname => 'emp', 11 p_mode => 'TRUNCATE', 12 P_dir => 'o:\temp1, 13 p_filename => 'emp', 14 p_separator => '.' 15 p_enclosure => '"', 16 p_terminator => ' ~ ' ) ;

17 18 dbms_output.put_line(to_char(l_rows) || 19 ' rows extracted to ascii file');

20 end;

21 / PL/SQL procedure successfully completed. tkyte@TKYTE816> truncate table emp;

Table truncated. tkyte@TKYTE816> alter table emp drop column ename;

Загрузка данных Table altered. tkyte@TKYTE816> alter table emp add emp_name varchar2 (10),Table altered. tkyte@TKYTE816> host sqlldr userid=tkyte/tkyte control=c:\temp\emp.ctl SQLLDR: Release 8.1.6.0.0 - Production on Sat Apr 14 20:40:01 2001 (c) Copyright 1999 Oracle Corporation. All rights reserved. Commit point reached - logical record count 14 tkyte@TKYTE816> desc emp Name Null? EMPNO JOB MGR HIREDATE SAL COMM DEPTNO RESUME EMP_NAME NOT NOLL Type NUMBER (4) VARCHAR2(9) NUMBER(4) DATE NUMBER(7,2) NUMBER(7,2) NUMBER(2) RAH(2000) VARCHAR2(10) tkyte@TKYTE816> select emp_name from emp;

EMP NAME SM" "ITH MI" "LLER 14 rows selected.

Этот метод можно использовать и для выполнения других операций, скажем, для изменения типа данных, их денормализации (выгрузки результатов соединения, например) и т.д. Как уже было сказано, представленный выше алгоритм работы утилиты выгрузки можно реализовать на различных языках и с помощью разных средств. На Web-сайте издательства Wrox можно найти реализацию этого алгоритма не только на PL/SQL, но и на языке Рго*С и в виде сценариев SQL*Plus. Реализация алгоритма на Рго*С будет самой быстродействующей и всегда будет создавать файлы в файловой системе клиента. Реализация алгоритма на PL/SQL — наиболее универсальна (ничего не надо компилировать и устанавливать на клиентских рабочих станциях), но файлы будут всегда создаваться в файловой системе сервера. Реализация алгоритма в виде сценариев SQL*Plus является компромиссным вариантом, обеспечивая прекрасную производительность и возможность создавать файлы на клиентской машине.

Глава Загрузка больших объектов Давайте рассмотрим некоторые методы загрузки данных в большие объекты. Речь идет не о столбцах типа LONG или LONG RAW, а о более предпочтительных типах BLOB и CLOB. Эти типы данных появились в Oracle 8.0 и предоставляют намного больше возможностей для работы, чем устаревшие типы LONG и LONG RAW. Мы изучим два метода загрузки данных в эти столбцы — с помощью SQLLDR и процедур на PL/SQL. Существуют и другие, например потоки Java, программирование на Рго*С и использование непосредственно функционального интерфейса OCI. В главе 18 рассматривается, как выгружать большие объекты с помощью Рго*С. Загрузка большого объекта будет выполняться аналогично, но вместо вызова EXEC SQL READ придется использовать EXEC SQL WRITE. Начнем с рассмотрения метода загрузки больших объектов с помощью PL/SQL, a затем опишем, как это сделать с помощью утилиты SQLLDR.

Загрузка больших объектов с помощью PL/SQL Пакет DBMS_LOB содержит подпрограмму LOADFROMFILE. Эта процедура позволяет использовать данные типа BFILE (представляющие файл в операционной системе) для наполнения столбцов типа BLOB или CLOB в базе данных. Чтобы можно было воспользоваться этой процедурой, необходимо создать в базе данных объект DIRECTORY. Этот объект позволит создавать объекты типа BFILE (и открывать их), ссылающиеся на файлы, существующие в файловой системе, к которой имеет доступ сервер баз данных. Последнее уточнение ("... к которой имеет доступ сервер баз данных") — ключевой момент при использовании PL/SQL для загрузки больших объектов. Пакет DBMS_LOB работает на сервере. Он может обращаться только к тем файловым системам, к которым имеет доступ сервер. В частности, для пакета недоступна локальная файловая система рабочей станции, с которой вы обращаетесь к СУБД Oracle по сети. Нельзя с помощью PL/SQL загрузить большие объекты непосредственно с локальной машины, поскольку их нет на сервере. Итак, надо начать с создания объекта DIRECTORY в базе данных. Сделать это просто. Для примера я создам два каталога (на этот раз, примеры выполняются в среде ОС UNIX):

ops$tkyte@DEV816> create or replace directory Directory created. ops$tkyte@DEV816> create or replace directory "dir2" as '/tmp/';

Directory created. dir1 as '/trap/';

Пользователь, выполняющий эту операцию, должен обладать привилегией CREATE ANY DIRECTORY. Я создал два каталога, чтобы продемонстрировать общую проблему, связанную с регистром символов при работе с объектами-каталогами. При создании первого каталога, DIR1, сервер Oracle сохранил объект с именем в верхнем регистре, как принято по умолчанию. Во втором примере, DIR2, каталог создан с именем, ре Загрузка данных гистр символов в котором оставлен без изменений. Почему это существенно, будет показано ниже, при использовании объекта типа BFILE. Предположим, необходимо загрузить данные в столбец типа BLOB или CLOB. Это делается весьма просто, например:

ops$tkyte@DEV816> create table demo 2 (id int primary key, 3 theClob clob 4) 5 / Table created. ops$tkyte@DEV816> host echo 'Hello World\!' > /tmp/test.txt ops$tkyte@DEV816> declare 2 l_clob clob;

3 l_bfile bfile;

4 begin 5 insert into demo values (1, empty_dob()) 6 returning theclob into l_clob;

7 8 l_bfile := bfilename('DIR1', 'test.txt');

9 dbms_lob.fileopen(l_bfile);

10 11 dbms_lob.loadfromfile(l_clob, l_bfile, 12 dbms_lob.getlength(l_bfile));

13 14 dbms_lob.fileclose(l_bfile);

15 end;

16 / PL/SQL procedure successfully completed. ops$tkyte@DEV816> select dbms_lob.getlength(theClob), theClob from demo 2/ DBMS_LOB.GETLENGTH (THECLOB) THECLOB 13 Hello World!

Интересно отметить, что если попытаться выполнить этот пример без изменений в Windows (поменяв, конечно, /tmp/ на каталог, соответствующий этой ОС), результат будет такой:

tkyte@TKYTE816> select dbms_lob.getlength(theClob), theClob from demo 2 / DBMS_LOB.GETLENGTH(THECLOB) THECLOB 18 'Hello Horld\!' Длина данных получилась больше из-за того, что командный интерпретатор Windows обрабатывает апострофы и символы маскировки (\) не так, как в ОС UNIX, а признак конца строки здесь длиннее. Рассмотрим представленный выше код:

Глава • В строках 5 и 6 мы создали строку в таблице, задали столбцу типа CLOB значение EMPTY_CLOB() и получили это значение — все это одним вызовом. Все большие объекты, за исключением временных, "существуют" в базе данных — мы не можем задать значение переменной типа LOB, не сославшись на временный большой объект или большой объект, уже находящийся в базе данных. Пустой объект EMPTY_CLOB() — это не Null-значение типа CLOB;

это непустой указатель на пустую структуру. При этом автоматически получается локатор LOB, указывающий на данные в заблокированной строке. Если бы это значение было выбрано без блокирования соответствующей строки, попытки записи в столбец завершились бы неудачно, поскольку перед записью большие объекты должны быть заблокированы (в отличие от других структурированных данных). При вставке строка, безусловно, блокируется. Если бы операция выполнялась с существующей строкой, ее пришлось бы выбирать с конструкцией FOR UPDATE для блокирования. • В строке 8 создается объект типа BFILE. Обратите внимание, что имя каталога DIR1 задано в верхнем регистре — это принципиально важно, как будет показано ниже. Так необходимо делать потому, что функции BFILENAME передается имя объекта, а не сам объект. Поэтому необходимо убедиться, что имя для объекта задано в том регистре, в котором оно хранится в базе данных Oracle. • В строке 9 открывается большой объект. Это позволит читать его. • В строке 11 загружается все содержимое файла операционной системы /tmp/test.txt в только что вставленный большой объект, определяемый локатором. Мы используем функцию DBMS_LOB.GETLENGTH для передачи подпрограмме LOADFROMFILE количества байтов, которые необходимо загрузить из файла BFILE (в данном случае грузится все). • Наконец, в строке 14 открытый объект BFILE закрывается;

все данные в столбец типа CLOB загружены. Если в представленном выше примере попытаться использовать dirl вместо DIR1, будет получено следующее сообщение об ошибке:

ops$tkyte@DEV816> declare 2 l_clob clob;

3 l_bfile bfile;

4 begin 5 insert into demo values (1, empty_clob()) 6 returning theclob into l_clob;

7 8 l_bfile := bfilename('dirl', 'test.txt');

9 dbms_lob.fileopen(l_bfile);

10 11 dbms_lob.loadfromfile(l_clob, l_bfile, 12 dbms_lob.getlength(l_bfile));

13 14 dbms_lob.fileclosed(l_bfile);

Загрузка данных 15 end;

16 / declare * ERROR at line 1: ORA-22285: non-existent directory or file for FILEOPEN operation ORA-06512: at "SYS.DBMS_LOB", line 475 ORA-06512: at line Причина в том, что каталог dirl не существует, a DIR1 — есть. Если вы предпочитаете использовать в именах каталогов символы разных регистров, необходимо при создании соответствующих объектов использовать идентификаторы в кавычках, как я и сделал для каталога dir2. Это позволит писать код следующего вида:

ops$tkyte@DEV816> declare 2 l_clob clob;

3 l_bfile bfile;

4 begin 5 insert into demo values (2, emptyclob()) 6 returning theclob into l_clob;

7 8 l_bfile := bfilename ('dir2', 'test.txt');

9 dbms_lob.fileopen(l_bfile);

10 11 dbms_lob.loadfromfile(l_clob, l_bfile, 12 dbms_lob.getlength(l_bfile));

13 14 dbms_lob.fileclose(l_bfile);

15 end;

16 / PL/SQL procedure successfully completed.

Помимо LOADFROMFILE есть и другие методы, с помощью которых можно наполнять данными столбцы типа LOB в PL/SQL. LOADFROMFILE — самое простое решение, если необходимо загрузить весь файл. Если же необходимо обрабатывать содержимое файла в процессе загрузки, можно также применять к объекту BFILE функцию DBMS_LOB.READ для чтения из него данных. Функция UTL_RAW.CAST_TO_VARCHAR2 удобна при чтении данных, являющихся текстовыми, а не двоичными. Подробнее о пакете UTL_RAW см. в Приложении А. Затем можно использовать вызовы DBMS_LOB.WRITE или WRITEAPPEND для записи данных в столбец типа CLOB или BLOB.

Загрузка данных больших объектов с помощью SQLLDR Теперь разберемся, как загружать данные больших двоичных объектов с помощью утилиты SQLLDR. Для этого существует несколько методов, но мы рассмотрим только два наиболее популярных: • загрузка данных, находящихся в том же файле, что и основные;

Глава • загрузка данных, хранящихся в отдельных файлах, имена которых указаны в записях файла данных. Такие файлы в SQLLDR принято называть вторичными файлами данных (Secondary Data Files — SDF). Начнем с данных, находящихся в том же файле, что и основные.

Загрузка данных больших объектов из того же файла В таких больших объектах, как правило, содержатся встроенные символы новой строки и другие специальные символы. Поэтому почти всегда придется использовать один из четырех рассмотренных ранее методов загрузки данных с символами новой строки. Давайте изменим таблицу DEPT так, чтобы столбец COMMENTS стал типа CLOB, а не VARCHAR2:

tkyte@TKYTE816> truncate table dept;

Table truncated. tkyte@TKYTE816> altar table dept drop column comments;

Table altered. tkyte@TKYTE816> alter table dept add comments clob;

Table altered.

Пусть имеется файл данных (demo21.dat) со следующим содержимым:

10, Sales,Virginia,01-april-2001,This is the Sales Office in Virginia| 20,Accounting,Virginia,13/04/2001,This is the Accounting Office in Virginia| 30,Consulting,Virginia,14/04/2001 12:02:02,This is the Consulting Office in Virginia| 40,Finance,Virginia,987268297,"This is the Finance Office in Virginia, it has embedded commas and is much longer than the other comments field. If you feel the need to add double quoted text in here like this: " "You will need to double up those quotes!"" to preserve them in the string. This field keeps going for up to 1000000 bytes or until we hit the magic end of record marker, the | followed by a end of line - it is right here ->" | Каждая запись завершается символом конвейера (|), за которым идет маркер конца строки. Как видите, текст для отдела 40 намного длиннее, чем для остальных отделов, содержит много переводов строк, кавычки и запятые. Имея такой файл данных, я могу создать управляющий файл следующего вида:

LOAD DATA INFILE demo21.dat "str X'7C0D0A'" INTO TABLE DEPT REPLACE FIELDS TERMINATED BY ', ' OPTIONALLY ENCLOSED BY "" TRAILING NULLCOLS (DEPTNO, Загрузка данных DNAME "upper(:dname)", LOC "upper(:loc) ", LAST_UPDATED "my_to_date(:last_updated ) ", COMMENTS char(1000000) ) Этот пример взят из ОС Windows, в которой строка завершается двумя байтами — отсюда и значение атрибута STR в управляющем файле. В ОС UNIX надо использовать значение '7С0А'. Для загрузки файла данных я указал тип CHAR(1000000) для поля COMMENTS, поскольку по умолчанию утилита SQLLDR использует для полей данных тип CHAR(255). Тип CHAR(1000000) позволит SQLLDR принимать до 1000000 байт данных. Необходимо указать размер, заведомо превышающий предполагаемую длину текста в поле загружаемого файла. Посмотрим на загруженные данные:

tkyte@TKYTE816> select comments from dept;

COMMENTS This is the Accounting Office in Virginia This is the Consulting Office in Virginia This is the Finance Office in Virginia, it has embedded commas and is much longer then the other comments field. If you feel the need to add double quoted text in here like this: "You will need to double up those quotes!" to preserve them in the string. This field keeps going for upto 1,000,000 bytes or until we hit the magic end of record marker, the | followed by a end of line — it is right here -> This is the Sales Office in Virginia Обратите внимание, что сдвоенные кавычки теперь стали одинарными. Утилита SQLLDR удалила лишние кавычки в ходе загрузки.

Загрузка данных больших объектов из внешних файлов Достаточно часто используется файл данных, содержащий имена файлов, которые необходимо загрузить в большие объекты. Так можно избежать смешивания в одном файле данных больших объектов со структурированными данными. Это дает дополнительную гибкость, поскольку в файле данных не надо применять один из четырех методов обхода проблемы встроенных символов новой строки, которые часто встречаются в больших текстах или двоичных данных. Такие дополнительные файлы данных в SQLLDR называются LOBFILE.

Глава Утилита SQLLDR также поддерживает загрузку файла структурированных данных, ссылающегося на единственный внешний файл данных. Можно указать утилите SQLLDR, как выбирать данные больших объектов из этого файла, так что для каждой строки структурированных данных будет загружаться соответствующий его фрагмент. Поскольку такой режим используется очень редко (лично мне он пока ни разу не понадобился), описывать его я не буду. Такие внешние файлы в SQLLDR называются сложными вторичными файлами данных. Файлы LOBFILE — относительно простые файлы данных, предназначенные для загрузки больших объектов. Файлы LOBFILE от основных файлов данных отличает отсутствие понятия запись, поэтому в них вполне можно использовать символы новой строки. В файлах LOBFILE данные могут быть представлены в одном из следующих форматов: • в виде полей фиксированной длины (например, загрузить байты с 100-го по 1000-ый из файла LOBFILE);

• в виде полей с разделителями (поля завершаются чем-то или взяты в "кавычки");

• в виде пар длина-значение, т.е. полей переменной длины. Чаше всего используется формат с разделителями, причем разделителем является символ EOF (конец файла). Обычно имеется каталог с файлами, которые необходимо загрузить в столбцы больших объектов — каждый файл целиком попадает в столбец типа BLOB. Для этого используется оператор LOBFILE с конструкцией TERMINATED BY EOF. Итак, допустим, имеется каталог с файлами, которые надо загрузить в базу данных. Необходимо загрузить информацию о владельце файла (OWNER), дату создания файла (TIMESTAMP), имя файла (NAME) и его данные. Загружать мы будем в следующую таблицу:

tkyte@TKYTE816> create table lob_demo 2 (owner varchar2(255), 3 timestamp date, 4 filename varchar2(255), 5 text clob 6) 7/ Table created.

С помощью простой команды ls -l в Unix или dir /q /n в Windows можно сгенерировать файл данных и загрузить его с помощью такого, например, управляющего файла для ОС Unix:

LOAD DATA INFILE * REPLACE INTO TABLE LOB_DEMO (owner position(16:24), timestamp position(34:45) date "Mon DD HH24:MI", Загрузка данных filename position(47:100), text LOBFILE (filename) TERMINATED BY EOF BEGINDATA -rw-r—r— -rw-r—r— -rw-r—r— -rw-r—r— -rw-r—r— -rw-r—r— -rw-r—r— -rw-r—r— -rw-r—r— -rw-r—r— 1 1 1 1 1 1 1 1 tkyte tkyte tkyte tkyte tkyte tkyte tkyte tkyte tkyte 1 tkyte 1785 1674 1637 2385 2048 1801 1753 1759 1694 Sep Sep Sep Sep Sep Sep Sep Sep Sep 27 19 17 17 17 17 17 17 17 Sep 12:56 15:57 14:43 15:05 15:32 15:56 16:03 16:41 16:27 16: demo10.log demo2.log demo3.log demo4.log demo5.log demo6.log demo7.log demo8.log demo8a.log demo9.log В случае Windows, аналогичный управляющий файл будет иметь вид:

LOAD DATA INFILE * REPLACE INTO TABLE LOB_DEMO (owner position(40:61), timestamp position(1:18) "to_date(:timestamp||'m','mm/dd/yyyy hhrmiam')", filename position(63:80), text LOBFILE (filename) TERMINATED BY EOF ) BEGINDATA 04/14/2001 12:36p 1,697 BUILTIN\Administrators demol0.log 04/14/2001 12:42p 1,785 BUILTIN\Administrators demoll.log 04/14/2001 12:47p 2,470 BUILTIN\Administrators demol2.log 04/14/2001 12:56p 2,062 BUILTIN\Administrators demol3.log 04/14/2001 12:58p 2,022 BUILTIN\Administrators demol4.log 04/14/2001 01:38p 2,091 BUILTIN\Administrators demol5.log 04/14/2001 04:29p 2,024 BUiLTIN\Administrators demol6.log 04/14/2001 05:31p 2,005 BUILTIN\Administrators demol7.log 04/14/2001 05:40p 2,005 BUILTIN\Administrators demol8.log 04/14/2001 07:19p 2,003 BUILTIN\Administrators demol9.log 04/14/2001 07:29p 2,011 BUILTIN\Administrators demo20.log 04/15/2001 11:26a 2,047 BUILTIN\Administrators demo21.log 04/14/2001 11:17a 1,612 BUILTIN\Administrators demo4.log Обратите внимание, что мы не загружали данные типа DATE в столбец timestamp — пришлось использовать SQL-функцию для преобразования формата даты Windows в формат, приемлемый для СУБД. Теперь, если проверить содержимое таблицы LOB_DEMO после запуска утилиты SQLLDR, получим:

tkyte@TKYTE816> select owner, timestamp, filename, dbms_lob.getlength(text) 2 from lob_demo;

OWNER BUILTIN\Administrators BUILTIN\Administrators TIMESTAMP 14-APR-01 14-APR-01 FILENAME demol0.log demoll.log DBMS_LOB.GETLENGTH (TEXT) 1697 Глава 9 14-APR-01 14-APR-01 14-APR-01 14-APR-01 14-APR-01 14-APR-01 14-APR-01 14-APR-01 14-APR-01 14-APR-01 15-APR-01 demol2.log demo4.log demol3.log demol4.log demol5.log demol6.log demol7.log demol8.log demol9.log demo20.log demo21.log 2470 1612 2062 2022 2091 2024 2005 2005 2003 2011 BUILTIN\Administrators BOILTIN\Administrators BUILTIN\Administrators BUILTIN\Administrators BUILTIN\Administrators BUILTIN\Administrators BUILTIN\Administrators BUILTIN\Administrators BUILTIN\Administrators BUILTIN\Administrators BUILTIN\Administrators 13 rows selected.

Этот подход можно применять и для больших двоичных объектов. Загрузить таким способом каталог с изображениями — очень просто.

Загрузка данных больших объектов в объектные столбцы Теперь, зная, как загружать данные в простую таблицу, специально для этого созданную, можно переходить к загрузке в уже существующую таблицу, включающую столбец сложного объектного типа с атрибутом типа большого объекта. Чаще всего это приходится делать при использовании средств обработки изображений interMedia или картриджа Virage Image Cartridge (VIR) в СУБД. Они используют сложный объектный тип ORDSYS.ORDIMAGE для столбцов таблиц. Необходимо научиться загружать в них данные с помощью утилиты SQLLDR. Для загрузки большого объекта в столбец типа ORDIMAGE надо немного разобраться в структуре типа ORDIMAGE. С помощью таблицы, в которую мы будем выполнять загрузку, и простой команды DESCRIBE, примененной к этой таблице и используемым типам в SQL*Plus, можно понять, что, имея столбец IMAGE типа ORDSYS.ORDIMAGE, данные надо загружать в IMAGE.SOURCE.LOCALDATA. Следующий пример можно выполнить, только если установлена и сконфигурирована опция interMedia или картридж Virage Image Cartridge, иначе тип данных ORDSYS.ORDIMAGE системе не будет известен:

ops$tkyte@ORA8I.WORLD> create table image_load( 2 id number, 3 name varchar2(255), 4 image ordsys.ordimage 5) 6 / Table created. ops$tkyte@ORA8I.WORLD> desc image_load Name Null? Type ID NAME IMAGE ops$tkyte@ORA8I.WORLD> desc ordsys.ordimage NUMBER VARCHAR2(255) ORDSYS.ORDIMAGE Загрузка данных Name SOURCE HEIGHT WIDTH CONTENTLENGTH ops$tkyte@ORA8I.WORLD> desc ordsys.ordsourca Name Null? LOCALDATA SRCTYPE SRCLOCATION Null? Турe ORDSOURCE NUMBER(38) NUMBER(38) NUMBER(38) Type BLOB VARCHAR2 (4000) VARCHAR2(4000) Управляющих файл для загрузки может выглядеть так:

LOAD DATA INFILE * INTO TABLE image_load REPLACE FIELDS TERMINATED BY ',' (ID, NAME, file_name FILLER, IMAGE column object ( SOURCE column object ( LOCALDATA LOBFILE (file_name) TERMINATED BY EOF NULLIF file name = 'HONE' BEGINDATA 1,icons,icons.gif В нем я добавил две новые конструкции: • COLUMN OBJECT. Этот тип поля сообщает SQLLDR, что задано не имя столбца, а часть имени. Она не сопоставляется с полем файла данных, а используется для построения корректных ссылок на столбцы объекта при загрузке. В представленном примере есть два вложенных признака объекта. Поэтому будет использоваться имя столбца IMAGE.SOURCE.LOCALDATA, что и требуется. Обратите внимание, что мы не загружаем никакие другие атрибуты этих объек тных типов, например IMAGE.HEIGHT, IMAGE.CONTENTLENGTH, IMAGE.SOURCE.SRCTYPE. Ниже мы увидим, как задать их значения. • NULLIF FILE_NAME = 'NONE'. Эта конструкция требует от SQLLDR загружать Null в объектный столбец, если поле FILE_NAME содержит слово NONE. После загрузки в столбцы interMedia-типов необходимо выполнить завершающую обработку загруженных данных с помощью PL/SQL, чтобы компонент interMedia мог с Глава ними работать. Например, в нашем случае, вероятно, понадобится выполнить следующую обработку для корректной установки соответствующих свойств изображений:

begin for с in (select * from image_load) с.image.setproperties;

end loop ;

end;

/ loop SETPROPERTIES — это метод объекта, предоставляемый типом ORDSYS.ORDIMAGE, который обрабатывает изображение и изменяет соответственно остальные атрибуты объекта. Подробнее обработка изображений в interMedia описана в главе 17.

Загрузка массивов переменной длины и вложенных таблиц с помощью SQLLDR Теперь давайте рассмотрим, как с помощью утилиты SQLLDR загружать массивы переменной длины и вложенные таблицы. Массивы переменной длины и вложенные таблицы (с этого момента мы будем называть их массивами) будут задаваться во входном файле следующим образом. • В файл данных включается дополнительное поле. Оно будет содержать количество элементов массива, которые должны быть в файле данных. Поле не загружается, а используется утилитой SQLLDR для определения количества элементов в загружаемом массиве. • Затем указывается поле или набор полей, задающих элементы массива. Итак, предполагается, что массивы переменой длины в файле данных снабжены дополнительным полем количества элементов, за которым следуют сами элементы. Можно также загружать массивы данных с одинаковым, фиксированным количеством элементов в каждой записи (например, в каждой входной записи — пять элементов массива). Мы рассмотрим оба метода на базе представленного ниже типа:

tkyte@TKYTE816> create type myArrayType 2 as varray(10) of number(12,2) 3 / Type created. tkyte@TKYTE816> create table t 2 (x int primary key, у my_Array_Type) 3 / Table created.

Это схема, в которую будут загружаться данные. А вот пример управляющего файла сданными, который можно использовать для загрузки. Он демонстрирует загрузку массивов с переменным количеством элементов. Каждая входная запись будет иметь формат: • Значение х.

Загрузка данных • Количество элементов в у. • Поля, содержащие отдельные элементы у.

LOAD DATA INFILE * INTO TABLE t replace fields terminated by "," ( x, y_cnt FILLER, у varray count ( У ) ) BEGINDATA 1,2,3,4 2,10,1,2,3,4,5,6,7,8,9,10 3,5,5,4,3,2, (y_cnt) Обратите внимание, что использовано ключевое слово FILLER, позволяющее присвоить значение поля переменной Y_CNT, не загружая его. Также использована конструкция VARRAY COUNT (Y_CNT), сообщающая SQLLDR, что у имеет тип VARRAY. Если бы поле Y представляло собой вложенную таблицу, пришлось бы использовать конструкцию NESTED TABLE COUNT(Y_CNT). Учтите также, что это — ключевые слова SQLLDR, а не функции SQL, поэтому для связываемых переменных не используются кавычки или двоеточия, как при ссылке на них в функции SQL. Ключевым элементом является конструкция COUNT. Она позволяет получить значение загружаемого массива. Например, получив следующую строку данных:

1,2,3, мы разбираем ее так: • 1 сопоставляется с х — первичным ключом;

• 2 сопоставляется с y_cnt — количеством элементов массива;

• 3,4 сопоставляется с у — элементами массива. После запуска SQLLDR получим:

tkyte@TKYTE816> s e l e c t * from t;

XY 1 MYARRAYTYPE (3, 4) 2 MYARRAYTYPE(1, 2, 3, 4, 5, 6, 7, 8, 9, 10) 3 MYARRAYTYPE(5, 4, 3, 2, 1) Именно это и требовалось. Теперь, допустим, необходимо загрузить входной файл с фиксированным количеством элементов в каждом массиве. Например, имеется иденти Глава фикатор и пять значений, связанных с этим идентификатором. Можно использовать следующий тип и таблицу:

tkyte@TKYTE816> create or replace type myTableType 2 as table of number(12,2) 3 / Type created. tkyte@TKYTE816> create table t 2 (x int primary key, у myTableType) 3 nested table у store as y_tab 4 / Table created.

Управляющий файл будет выглядеть следующим образом: (обратите внимание на использование CONSTANT 5 в конструкции count для вложенной таблицы;

она указывает утилите SQLLDR, сколько элементов будет в каждой записи) LOAD DATA INFILE * INTO TABLE t replace fields terminated by ", " ( x, у ( У ) ) BEGINDATA 1,100,200,300,400,500 2,123,243,542,123,432 3,432,232,542,765,543 nested table count (CONSTANT 5) После запуска SQLLDR получим:

tkyte@TKYTE816> select * from t;

XY 1 MYTABLETYPE(100, 200, 300, 400, 500) 2 MYTABLETYPE(123, 243, 542, 123, 432) 3 MYTABLETYPE(432, 232, 542, 765, 543) Как видите, данные загружены во вложенную таблицу. Отвлекаясь ненадолго от темы SQLLDR, хочу обратить ваше внимание на то, что при загрузке можно обнаружить одно из свойств вложенных таблиц. Я случайно обнаружил, что при повторной загрузке тех же данных в таблицу с помощью SQLLDR получается немного другой результат:

tkyte@TKYTE816> host sqlldr userid=tkyte/tkyte control=demo24.ctl SQLLDR: Release 8.1.6.0.0 - Production on Sun Apr 15 12:06:56 Загрузка данных (с) Copyright 1999 Oracle Corporation. All rights reserved.

Commit point reached - logical record count 3 tkyte@TKYTE816> XY 1 MYTABLETYPE(2OO, 3 0 0, 4 0 0, 5 0 0, 100) 2 MYTABLETYPE(123, 2 4 3, 5 4 2, 1 2 3, 432) 3 MYTABLETYPE(432, 2 3 2, 5 4 2, 7 6 5, 543) select * from t;

Обратите внимание, что теперь число 100 — последнее в первой вложенной таблице. Это побочный эффект повторного использования пространства в таблице при повторной загрузке. Он может воспроизводиться на других системах или с другим размером блока (а может и — нет, как произошло у меня). Во вложенных таблицах порядок строк не сохраняется, так что не удивляйтесь, если данные во вложенной таблице оказываются не в том порядке, как вы их загружали!

Вызов утилиты SQLLDR из хранимой процедуры Если коротко — этого сделать нельзя. SQLLDR — не набор функций, его нельзя вызвать. SQLLDR — это утилита командной строки. Конечно, можно написать внешнюю процедуру на языке Java или С, которая запускает SQLLDR (см. в главе 19 пример хранимой процедуры для выполнения команды операционной системы), но это не то же самое, что "вызвать" SQLLDR. Загрузка при этом будет происходить в другом сеансе, вне вашей транзакции. Кроме того, придется анализировать полученный в результате журнальный файл, чтобы определить, была ли загрузка успешной и насколько успешной (сколько строк было загружено, прежде чем загрузка была прекращена из-за возникновения ошибок). Я не рекомендую вызвать SQLLDR из хранимой процедуры. Итак, что же делать, если необходимо загрузить данные в хранимой процедуре? Возможны следующие варианты. • Написать мини-утилиту SQLLDR на языке PL/SQL. При этом можно использовать либо переменные типа BFILE для чтения двоичных данных, либо пакет UTL_FILE для чтения, анализа и загрузки текстовых данных. Этот подход будет продемонстрирован далее. • Написать мини- утилиту SQLLDR на языке Java. Это не сложнее, чем создание загрузчика на PL/SQL, поскольку можно использовать многие существующие компоненты Java. • Написать SQLLDR в виде функции на С, и вызывать его как внешнюю процедуруЯ представил эти варианты в порядке повышения сложности и производительности. Обычно чем сложнее решение, тем выше его производительность. В нашем случае реализации на языках PL/SQL и Java сравнимы по производительности, а реализация на С Глава будет работать быстрее (но окажется менее переносимой и более сложной в создании и установке). Я люблю простоту и переносимость, поэтому продемонстрирую идею реализации на примере PL/SQL. Удивительно, как просто, оказывается, написать собственный мини-SQLLDR. Например:

ops$tkyte@DEV816> 2 Table created. create table badlog(ernn varchar2(4000), data varchar2(4000));

Начнем с таблицы для записей, которые не удалось загрузить. Затем создадим функцию загрузки:

ops$tkyte@DEV816> create or replace 2 function load_data(p_table in varchar2, 3 p_cnames in varchar2, 4 p_dir in varchar2, 5 p_filename in varchar2, 6 p_delimiter in varchar2 default 7 return number '|') Она принимает имя таблицы, в которую должна выполняться загрузка, список имен столбцов в том порядке, в каком они заданы во входном файле, каталог и имя загружаемого файла, а также разделитель данных во входном файле. Функция возвращает количество успешно загруженных записей. Далее идут локальные переменные этой небольшой функции:

8 9 10 11 12 13 14 15 16 17 18 is l_input l_theCursor l_buffer l_lastLine l_status l_colCnt l_cnt l_sep l_errmsg begin utl_file.file_type;

integer default dbms_sql.open_cursor;

varchar2(4000);

varchar2(4000);

integer;

number default 0;

number default 0;

char(l) default NULL;

varchar2(4000);

Затем мы открываем входной файл. Предполагается загружать простые данные через разделитель, причем длина строк не должна превышать 4000 байт. Это ограничение можно расширить до 32 Кбайт (максимальный размер, поддерживаемый пакетом UTL_FILE). Для работы с записями большего размера придется использовать тип данных BFILE и средства пакета DBMS_LOB:

19 20 21 22 23 /* * Открываем файл, из которого считываются данные. * Предполагается, что он состоит из простых записей через * разделитель. */ l_input := utl_file.fopen(p_dir, p_filename, 'r', 4000);

Загрузка данных Теперь создадим оператор INSERT вида INSERT INTO TABLE (столбцы) VALUES (связываемые переменные). Количество вставляемых столбцов определяем путем подсчета запятых. Для этого берем длину текущего списка столбцов, вычитаем длину той же строки после удаления запятых и прибавляем 1 (это общий способ подсчета количества определенных символов в строке):

24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 l_buffer := 'insert into ' || p_table || '('|| p_cnames || ') values (';

/* * Определяем количество запятых путем вычитания * из текущей длины списка имен столбцов * длины той же строки с удаленными запятыми * и прибавления 1. */ l_colCnt := length(p_cnames)length(replace(p_cnames,',',''))+1;

for i in 1.. l_colCnt loop l_buffer := l_buffer || l_sep || ':b'||i;

l_sep : = ',';

end loop;

l_buffer := l_buffer || ' ) ' ;

/* * Получили строку вида: * insert into T (cl,c2,...) values (:b1, :b2,...) */ Теперь, сформировав строку для оператора INSERT, разберем ее:

47 dbms_sql.parse(l_theCursor, l_buffer, dbms_sql.native);

а затем прочитаем последовательно строки входного файла, разбивая их на столбцы:

48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 loop /* * Читаем данные, пока они есть, затем завершаем работу. */ begin utl_file.get_line(l_input, l_lastLine);

exception when NO_DATA_FOUND then exit;

end;

/* * Анализировать строку удобнее, если она завершается * разделителем. */ l_buffer := l _ l a s t L i n e || p_delimiter;

65 66 67 68 69 70 71 72 73 74 75 76 Глава for i in 1.. l_colCnt loop dbms_sql.bind_variable(l_theCursor, ':b'||i, substr(l_buffer, 1, instr(l_buffer,p_delimiter)-1)) ;

l_buffer := substr(l_buffer, instr(l_buffer,delimiter)+l) ;

end loop;

/* * Выполняем оператор insert. В случае ошибки * помещаем строку данных в таблицу "плохих" строк.

79 80 81 82 83 84 85 86 87 */ begin l_status := dbms_sql. execute(l_theCursor);

l_cnt := l_cnt + 1;

exception when others then l_errmsg := sqlerrm;

insert into badlog (errm, data) values (l_errmsg, l_lastLine);

end;

end loop;

После загрузки всех записей, которые можно было загрузить, и помещения всех остальных в таблицу "плохих" строк, завершаем работу и возвращаем результат:

89 90 /* 91 * закрыть курсор, файл и зафиксировать записи 92 */ 93 dbms_sql.close_cursor(l_theCursor);

94 utl_file.fclose(l_input);

95 commit;

96 97 return 1 cnt;

98 exception 99 when others then 100 dbms_sql.close_cursor(l_theCursor);

101 if ( u t l _ f i l e. is_open ( l_input )) then 102 utl_file.fclose(l_input);

103 end if;

104 RAISE;

105 end load_data;

106 / Function created.

Эту функцию можно использовать следующим образом:

ops$tkyte@DEV816> create table tl Table created. (x i n t, у int, z int) ;

Загрузка данных ops$tkyte@DEV816> ops$tkyte@DEV816> ops$tkyte@DEV816> ops$tkyte@DEV816> host host host host echo echo echo echo 1,2,3 > /tmp/tl.dat 4,5,6 >> /tmp/tl.dat 7,8,9 >> /tmp/tl.dat 7,NotANumber,9 >> /tnp/tl.dat ops$tkyte@DEV816> begin 2 dbms_output.put_line < 3 load_data('T1', 4 'x,y,z', 5 'c:\temp', 6 't1.dat', 7 ',') || ' rows loaded') ;

8 end;

9/ 3 rows loaded PL/SQL procedure successfully completed. ops$tkyte@DEV816> SELECT * 2 FROM BADLOG;

ERRM DATA ORA-01722: invalid number 7,NotANumber,9 ops$tkyte@DEV816> select * from tl;

X 1 4 7 Y 2 5 8 Z 3 6 Конечно, это решение уступает по гибкости SQLLDR, поскольку нет способа задать максимально допустимое количество ошибок или указать, куда помещать "плохие" записи, нельзя задать символ, в который могут быть взяты значения полей, и т.д., но понятно, насколько легко добавить эти возможности. Например, чтобы добавить необязательный символ "кавычек" вокруг значений полей, достаточно добавить параметр P_ENCLOSED_BY и заменить вызов DBMS_SQL.BIND следующим:

loop dbms_sql.bind_variable(l_theCursor, ':b'||i, trim (nvl (p_enclosed_by, chr(0)) FROM substr(l_buffer, 1, instr(l_buffer,p_delimiter)-l));

l_buffer := substr(l_buffer, instr(l_buffer,p_delimiter)+l);

end loop;

сымитировав опцию OPTIONALLY ENCLOSED BY утилиты SQLLDR. Представленная выше функция вполне подходит для загрузки небольших объемов данных, однако, как будет показано в главе 16, при необходимости масштабирования в нее придется добавить подпрограмму для обработки массивов данных. В этой главе можно найти примеры использования массивов для множественной вставки данных.

Глава На Web-сайте издательства Wrox можно найти еще один мини-утилиту SQLLDR на языке PL/SQL. Она создана специально для загрузки файлов в формате dBASE. Для чтения данных используются объекты типа BFILE, поскольку файлы формата dBASE содержат одно-, двух- и четырехбайтовые целые числа, которые не позволяет обрабатывать пакет UTL_FILE. Загрузчик может либо описывать содержимое dBASE-файла, либо загружать его в базу данных.

Проблемы Давайте рассмотрим ряд особенностей, которые необходимо учитывать при использовании утилиты SQLLDR.

Нельзя выбрать сегмент отката Часто при загрузке с помощью SQLLDR используется опция REPLACE. В результате перед загрузкой данных просто выполняется оператор DELETE. При этом может генерироваться огромный объем данных отката. Хотелось бы помещать их в конкретный, специально созданный большой сегмент отката. Однако утилита SQLLDR не предлагает средств привязки к сегменту отката. Необходимо обеспечить достаточный размер всех сегментов отката, чтобы в них поместились данные отката для оператора DELETE, или просто использовать опцию TRUNCATE. Поскольку при выполнении оператора INSERT данных отката генерируется мало, а утилита SQLLDR достаточно часто выполняет фиксацию, такая проблема возникает только при использовании опции REPLACE.

TRUNCATE работает по-другому Опция TRUNCATE в SQLLDR может работать не так, как оператор TRUNCATE в SQL*Plus или других инструментальных средствах., Исходя из предположения, что в таблицу будет загружен примерно такой же объем данных, утилита SQLLDR использует расширенный вариант оператора TRUNCATE. Она выполняет: truncate table t reuse storage Опция REUSE STORAGE не освобождает выделенные экстенты, она лишь помечает их как "свободное пространство". Если такой результат нежелателен, необходимо явно выполнять оператор TRUNCATE для таблицы перед вызовом SQLLDR.

Стандартным типом поля в SQLLDR является CHAR(255) Стандартная длина поля — 255 символов. Если загружаемое поле длиннее, выдается сообщение об ошибке:

Record N: Rejected — Error on table T, column С. Field in data file exceeds maximum length Загрузка данных Это не означает, что данные не поместятся в столбец базы данных, просто SQLLDR ожидает не более 255 байт данных, а получает больше. Решение: задать тип поля CHAR(N) в управляющем файле, где N — достаточно большое значение, превышающее размер самого большого поля во входном файле.

Опции командной строки переопределяют установки в командном файле Многие опции утилиты SQLLDR можно задавать как в управляющем файле, так и в командной строке. Например, можно использовать конструкцию INFILE в управляющем файле, а можно просто вызывать SQLLDR... DATA=FILENAME. Опции командной строки переопределяют соответствующие установки командного файла. Нельзя гарантировать, что будут использоваться именно установки управляющего файла, поскольку при вызове SQLLDR пользователь их может переопределить.

Резюме В этой главе рассмотрены стандартные задачи: загрузка файлов с разделителями;

загрузка файлов с записями фиксированной длины;

загрузка файлов изображений из каталога;

преобразование данных с помощью функций в ходе загрузки;

способы выгрузки данных и т.д. Мы не рассматривали подробно множественную загрузку данных в режиме непосредственной загрузки, а лишь кратко описали ее особенности. В главе мы хотели ответить на вопросы, наиболее часто возникающие при использовании SQLLDR и интересующие максимально широкую аудиторию.

Стратегии и средства настройки Мне очень хорошо знакомы проблемы настройки. Я потратил уйму времени на настройку систем, в особенности тех, которые не проектировал и не реализовывал. Это создает определенные трудности: надо подумать не только о том, где искать проблемы, но и о том, где не искать. Настройка при этом становится чрезвычайно сложной и ее приходится выполнять в крайне жестких условиях. Никто не занимается настройкой, пока все хорошо, — о ней начинают думать, когда система разваливается. В этой главе описан подход и средства, используемые мною при настройке. Я стараюсь делать все так, чтобы ничего никогда не приходилось настраивать;

по крайней мере — систему после ввода в эксплуатацию. Настройка — часть процесса разработки, начинающаяся еще до того, как написана первая строка кода, и заканчивающаяся за день до внедрения;

настройкой нельзя заниматься после внедрения. К сожалению, большинство проблем настройки, к решению которых меня привлекают, связано с настройкой уже созданных производственных систем. Это означает, что настройка ведется во враждебной среде (недовольных пользователей) и в условиях множества нежелательных ограничений (никто не хочет останавливать производственную систему, чтобы изменить в ней что-то). Лучше всего настраивать задолго до этого момента. В частности, в этой главе рассматривается: • использование связываемых переменных и их влияние на производительность;

• выполнение трассировки приложений с помощью установок SQL_TRACE и TIMED_STATISTICS, а интерпретация результатов с помощью утилиты TKPROF;

• установка и использование пакета Statspack для настройки экземпляра;

• использование представлений V$, к которым я регулярно обращаюсь.

Глава Определение проблемы Настройка приложения может оказаться действительно интересным занятием. Достаточно сложно понять, где приложение работает не так, исправить же ситуацию еще сложнее. В некоторых случаях необходимо менять общую архитектуру. В главе 1 я описывал систему, выполнявшую продолжительные хранимые процедуры на многопоточном сервере Oracle. В этой системе пришлось полностью пересмотреть архитектуру. В других случаях достаточно было просто найти наименее производительные SQL-запросы и настроить их. Не вся настройка связана с базой данных. Я помню один особенно сложный случай настройки, когда клиент использовал коммерческое приложение по учету рабочего времени на базе СУБД Oracle. Это приложение уже было установлено в нескольких местах и везде успешно работало. Однако здесь, где пользователей было наибольшее количество, оно полностью разваливалось. Большую часть времени оно работало прекрасно, как и ожидалось. При пиковой нагрузке, например при пересменке или в обеденный перерыв, система периодически зависала. Причем по непонятным причинам. По всем признакам мне было понятно, что проблема связана с блокированием/конфликтами доступа — это было очевидно. А вот понять причины блокирования и конфликтов оказалось непросто. После двух дней поиска в базе данных, просмотра всех представлений V$, изучения кода приложения и признаков проблемы я попросил показать приложение в действии. На концептуальном уровне я понимал, что оно делает, но не знал, как именно делает. Меня привели на склад, где приложение использовали пользователи (фабричные рабочие). Я увидел, как именно они его используют. Они выстраивались в очереди у терминалов и проводили карточкой со штрих-кодом по считывателю, чтобы зафиксировать время прихода. Следующий рабочий в очереди нажимал клавишу Enter, проводил карточкой по считывателю и шел дальше. Неожиданно, пока я там стоял, приложение зависло. Ни одна карточка не считывалась. Потом кто-то подошел к свободному терминалу, нажал клавишу Enter и провел карточкой по считывателю — система заработала! При более детальном анализе приложения стало понятно, что происходит. Оказалось, проблема вообще не была связана с базой данных — это была проблема взаимодействия человека и компьютера. Причиной зависания был интерфейс приложения. Выяснилось, что система создавалась для обработки транзакций следующего вида: • считывается карточка, при этом блокируется строка в таблице и вставляется строка в другую таблицу;

• на экран сообщение выдается о том, что строка вставлена, при этом надо нажать клавишу Enter;

• пользователь нажимает Enter, и приложение фиксирует транзакцию (до этого момента транзакция еще не зафиксирована);

• следующий пользователь проводит карточкой по считывателю. На самом деле рабочие делали так: • проводили карточкой по считывателю и уходили;

• следующий человек в очереди нажимал Enter вместо предыдущего, фиксируя его проход, проводил карточкой по считывателю и уходил.

Стратегии и средства настройки После того как считывалась карточка последнего человека в очереди, транзакция оставалась открытой, что блокировало ресурсы. Фоновый процесс, срабатывающий раз в несколько минут, блокировал некоторые ресурсы, а затем пытался заблокировать тот же ресурс, что и "открытая" транзакция. Фоновый процесс останавливался, предварительно заблокировав некоторые ресурсы, необходимые интерактивному приложению. В результате все терминалы блокировались и система "зависала", как и было отмечено, пока кто-нибудь, проходя мимо терминала, не замечал сообщение с просьбой нажать клавишу Enter для продолжения работы и не нажимал эту клавишу. После этого все опять работало отлично. Простое изменение в пользовательском интерфейсе — немедленная фиксация транзакции при считывании карточки — решило проблему. В другом случае, в одной из моих последних миссий по настройке, пришлось иметь дело с очень большим приложением. В его разработке, реализации и внедрении участвовали сотни людей. Ситуация достигла кризисной точки (так всегда бывает, когда приходится заниматься настройкой). Проблема: "приложение Oracle работает медленно". После беглого изучения приложения, среды и базы данных причина проблемы оставалась неочевидной. При более детальном изучении приложения несколько уязвимых точек системы стали вырисовываться. Как оказалось, проблема была вовсе не в приложении Oracle, а в интерфейсе к существующей системе. Новое приложение использовало существующую систему так, как никто не предполагал. Существующая система не справилась с дополнительной нагрузкой. Новое приложение добило старое. Выяснить это оказалось непросто, поскольку код не был для этого подготовлен ("подготовка" в данном случае означала просто наличие "отладочных" сообщений или журнала приложения с отметкой времени выполнения каждой операции, чтобы можно было увидеть, что происходит). Нам пришлось добавить много подобного "инструментария" постфактум, чтобы выяснить причину замедления (и даже периодической остановки) работы системы. Мораль этих историй в том, что настройка — дело непростое, и решения здесь не всегда интуитивно понятны. Две проблемы настройки не решаются абсолютно одинаково;

проблемы не всегда связаны с базой данных, они не всегда находятся в приложении и далеко не всегда вызваны несоответствием архитектуры. Поиск проблем, особенно когда непонятно, как должно использоваться приложение или как оно работает, иногда ведется "на удачу". Вот почему некоторые относят настройку к области "черной магии". Очень сложно объяснить кому-нибудь, как настраивать систему, если настраивать приходится постфактум. Настройка готового приложения требует опыта расследования, как у хорошего детектива — вы открываете тайну. Для этого требуется соответствующее сочетание технических знаний и опыта работы с людьми (никто не хочет, чтобы на него потом показывали пальцем, и этот аспект надо учитывать). Нет ни простых, ни сложных готовых путей настройки постфактум. Однако я могу рассказать вам, как настраивать по ходу разработки — именно такой стратегии я рекомендую придерживаться. С моей точки зрения, настройкой системы надо заниматься при проектировании. Производительность должна обеспечиваться на всех уровнях системы. Настройка системы постфактум — это фактически не настройка, а переписывание кода и изменение архитектуры.

Глава Мой подход В этом разделе я хочу представить ряд общих принципов настройки. Если и есть чтонибудь в Oracle, относящееся к "шаманству", так это настройка производительности. Все, что вы не понимаете, кажется чудом. Настройку баз данных многие как раз и не понимают. Мне же искусство настройки кажется вполне осваиваемым. Я уверен, что существует три уровня настройки, о которых надо знать и которые необходимо проходить последовательно. • Настройка приложения, часть 1. Настройка изолированного приложения. Обеспечение его максимально быстрой работы в однопользовательском режиме. • Настройка приложения, часть 2. Настройка приложения в многопользовательском режиме. Обеспечение поддержки как можно большего количества одновременно работающих пользователей. • Настройка экземпляра/сервера. Настройка приложения, изолированно и в многопользовательском режиме, требует более 90 процентов всех усилий по настройке. Да, прежде чем обращаться к администратору базы данных мы, разработчики, делаем уже 90 процентов работы. Именно поэтому, я думаю, многие и не понимают, в чем состоит настройка базы данных. Они постоянно просят меня настроить им базу данных и вообще не трогают свои приложения! За исключением экзотических случаев, это физически невозможно. Все ищут то, что я называю магическим параметром инициализации fast=true. Этот магический параметр заставил бы их базу данных работать быстрее. Чем раньше вы смиритесь с тем, что такого параметра нет, тем лучше для вас. Крайне маловероятно, что можно заставить запросы выполняться существенно быстрее простой установкой параметра в файле инициализации. Может потребоваться реорганизация данных, причем я имею в виду не распределение файлов данных по дискам для ускорения ввода/вывода — я говорю об изменении физического порядка столбцов в таблицах, об изменении количества и содержимого таблиц. Это означает переделку приложения. На уровне базы данных тоже есть что настраивать, но опыт показывает, что большая часть проблем настройки решается на уровне приложений. Наиболее вероятно, что именно автор приложения сможет заменить запрос, для получения ответа на который выполняется 1000000 логических операций ввода/вывода, другим запросом или найти альтернативный способ получения той же информации. Если проблемы связаны с архитектурой приложения, только его автор сможет их исправить или обойти.

Настройка - непрерывный процесс Если вы поняли, что основные возможности для настройки надо искать на уровне приложения, следующий шаг — уяснить, что настройкой надо заниматься непрерывно. У этого процесса нет начала и конца. Настройка производительности является частью этапа проектирования, она выполняется на этапе разработки, в ходе тестирования, при внедрении системы и затем при ее эксплуатации.

Стратегии и средства настройки Проектирование с учетом производительности Системы баз данных нельзя создавать по принципу "сегодня создаем, завтра — настраиваем". Слишком много решений, непосредственно влияющих на производительность и, что еще важнее, масштабируемость системы, будет принята на этапе "создания". Помните, ранее я уже писал, что для СУБД Oracle намного проще создать немасштабируемую систему, чем хорошо масштабируемую. Создать немасштабируемое приложение легко — это может сделать каждый. А вот для создания быстро работающего и масштабируемого — придется потрудиться. Оно должно с самого начала проектироваться соответствующим образом. История из жизни: группа проектировщиков разработала приложение. Оно являлось расширением существующей системы. Приложение включало ряд собственных таблиц и использовало несколько существующих. Новое приложение было внедрено, и сразу же существующая система стала неработоспособной — вся система в целом стала работать слишком медленно. Оказалось, что разработчики нового приложения решили, что разберутся, какие индексы нужны, "на месте". За исключением созданных автоматически для поддержки первичных ключей, никаких индексов не было. Практически каждый запрос приводил к многочисленным полным просмотрам таблиц. Разработчики спрашивали, как это быстро исправить. Напрашивался лишь один ответ: "Удалите ваши таблицы и выкиньте приложение". Проектировщикам казалось, что настройкой можно заняться по завершении разработки, т.е. сначала создаем работающее приложение, а затем заставляем его работать быстрее. Не стоит и говорить, что проект закончился полным провалом. Разработанная структура базы данных не позволяла эффективно отвечать на выполняемые запросы. Пришлось вернуться к началу и все создавать заново. Для того чтобы проиллюстрировать свой подход, расскажу небольшую историю. Там, где я работал, использовалась простая внутренняя система под названием 'phone'. Можно было с помощью telnet подключиться к любому почтовому серверу (тогда почта была только текстовой) и в командной строке набрать phone <искомая строка>. В ответ выдавались данные следующего вида:

$ phone tkyte TKYTE Kyte, Tom RESTON: 703/555 4567 Managing Technologies Примерно в 1995/1996 году, когда активно начал использоваться Web, наша группа создала небольшую Web-систему, загружавшую данные о телефонах в таблицу и позволявшую пользователям вести по этой таблице поиск. Теперь, после помещения данных в СУБД и добавления небольшого графического интерфейса, система стала в компании стандартным средством поиска информации о сотрудниках. Со временем мы стали добавлять в нее все больше данных и дополнительные поля. Она становилась все более популярной. В определенный момент мы решили добавить намного больше полей и пересоздать систему, существенно расширив ее возможности. Нашей целью на этой стадии было сразу вести разработку с учетом производительности. Мы знали, что создаваемая система будет ограничивающим фактором производительности сервера в целом. Хотя и небольшая по размеру кода, эта система должна была обеспечивать основной объем информации, получаемой с сервера. Первое, что мы сделали, с учетом наших знаний и предположений о будущем использовании этой про Глава стенькой системы, — спроектировали таблицы, в которых содержатся ее данные. Мы специально проектировали эти таблицы с учетом дальнейшего использования. Речь шла о небольшом хранилище данных только для чтения, в котором пользователи осуществляют поиск, причем поиск должен был выполняться быстро. Популярность системы росла с каждым днем, и система угрожала захватить все ресурсы сервера. Вся информация хранилась в одной 67-столбцовой таблице с 75000 строк, в которой необходимо было выполнять поиск строк по разным полям. Так что, если ввести строку ABC, то ее поиск выполняется в поле адреса электронной почты, имени и т.д. Что еще хуже, можно было вводить шаблоны типа %АВС% и искать без учета регистра символов. Ни в одной существующей СУБД нет индекса, который поддерживал бы подобный поиск, поэтому пришлось сделать собственный. Каждую ночь, при получении обновленных данных из системы учета персонала (делалось полное обновление данных в таблице), мы выполняли следующий оператор:

CREATE TABLE FAST_EMPS PCTFREE 0 CACHE AS SELECT upper(last_name)||'/'||upper(first_name)||'/' || ' /' || substr(phone, length(phone)-4) SEARCH_STRING, rowid row_id FROM EMPLOYEES / после завершения обновления. Фактически мы строили максимально плотную и компактную таблицу (pctfree 0) и рекомендовали держать ее в буферном кэше.

select * from employees where rowid in (select row_id from fast_emp where search_string like :bv and rownum <= 500) Этот запрос всегда выполняет полный просмотр таблицы FAST_EMP, но мы этого и добивались. С учетом типа выполняемых запросов, это был единственно возможный выбор. Нет никакой схемы индексации, поддерживающей все запросы требуемого вида. Нашей целью было минимизировать объем просматриваемых данных, ограничить объем данных, получаемых в ответ на запросы, и сделать поиск максимально быстрым. Представленный выше подход позволяет достичь всех трех целей. Таблица FAST_EMP обычно целиком будет помешаться в буферном кэше. Она — маленькая (размер ее составляет менее 8 процентов размера исходной таблицы) и просматривается очень быстро. Поиск без учета регистра символов в ней обеспечен уже при создании, один раз (а не при каждом запросе), путем хранения данных в верхнем регистре. Количество соответствующих запросу записей не будет превосходить 500 (если поиск дает больше результатов, надо уточнить критерий: 500 результатов все равно никто никогда не просматривает). Фактически эта таблица используется во многом аналогично индексу, поскольку хранит идентификаторы строк в основной таблице. Для поддержки поиска в этой системе вообще не использовались индексы — только две таблицы.

Стратегии и средства настройки Это прекрасный пример приложения с очень специфическими требованиями к проекту, а также пример того, как при учете этих требований в самом начале можно получить оптимальную производительность.

Пробуйте разные подходы Очень важно экспериментировать, пробуя различные реализации. Теория — это хорошо, но часто неправильно — результаты тестирования реализаций намного точнее. Пробуйте реализовать свои идеи. Проверяйте, какой будет реальная производительность. СУБД предлагают тысячи средств реализации. Нет единственного "лучшего решения" (если бы оно было, то поставщик СУБД только бы его и предоставлял). Иногда фрагментация данных повышает производительность, иногда — нет. Иногда использование компонента interMedia Text может повысить скорость поиска, а иногда — не повысит. Иногда хеш-кластер — лучшее решение, иногда от него нет никакого проку. В СУБД нет "вредных" средств (которых надо избегать любой ценой). Аналогично, нет и "панацеи", средств, решающих все проблемы. Прежде чем утвердить именно такой проект для описанного выше приложения, мы опробовали несколько альтернативных подходов: пытались использовать быстрый полный просмотр индекса по функции (тоже быстро, но не настолько), применяли компонент interMedia Text (не помог, поскольку требовался поиск по шаблону типа %АВС%), пробовали добавить еще одно поле в таблицу EMPLOYEES (но она не вмещалась в буферный кэш, т.е. оказалась слишком большой для эффективного полного просмотра). Может показаться странным, что столько времени было потрачено на одну эту деталь реализации. Однако представленный выше запрос выполнялся от 150000 до 250000 раз в день, т.е. два-три раза в секунду в течение целого дня (при равномерном поступлении запросов). Но это предположение неверно: как и в большинстве систем, мы наблюдали пики активности. Если бы один этот запрос выполнялся медленно, вся система развалилась бы — и это всего лишь один из тысяч поддерживаемых запросов. Определив заранее предполагаемые слабые места или наиболее очевидные цели и сконцентрировав на них усилия, мы смогли создать хорошо масштабируемое приложение. Если бы использовался подход "настройка постфактум" приложение пришлось бы переписывать.

Применяйте защитное программирование Снабдите код средствами отладки и настройки и оставьте их в производственной версии. Речь идет о способах трассировки действий приложения "извне". Установка SQL_TRACE (более детально рассматриваемая далее в этой главе) — это средство отладки и настройки. Система фиксации событий (EVENT) в СУБД Oracle — это тоже средство отладки и настройки (пример ее использования в Oracle представлен ниже). СУБД Oracle включает многочисленные средства отладки и настройки, чтобы разработчики ядра СУБД могли определять причины проблем, связанных с производительностью, даже не выезжая к клиенту. В приложениях такие средства тоже необходимы. Единственный способ заставить что-то работать быстрее — понять, где происходит замедление. Если известно только, что процесс "работает медленно", настроить его производительность будет крайне сложно. Если же процесс обильно снабжен соответствующими средствами отладки и трассировки и может по требованию регистрировать происходящие в нем события, вы сможете легко понять, что именно выполняется медленно.

Глава Проверяйте производительность Периодическая проверка производительности по ходу реализации принципиально важна. То, что нормально работает для 10 пользователей, не проходит для 100 или 1000. Проверка в реальных условиях — единственный способ убедиться, что можно будет достичь поставленных целей. Главное — с первого же дня определить критерии (метрики) производительности. Это мой ночной кошмар: необходимо проверить и настроить производительность, а цель проста: "чтобы работало как можно быстрее". Такой настройкой производительности можно заниматься весь остаток жизни. Все может работать немного быстрее. Если цель ставится "как можно быстрее", она недостижима. Необходимо установить ограничения и вести разработку в рамках этих ограничений. Кроме того, если единственное ограничение — "как можно быстрее", можно делать и "как можно медленнее". Сравнивать не с чем, поэтому любая реализация получается достаточно быстродействующей. Последнее утверждение многих удивит: "как можно быстрее", значит, "так медленно, как получится"? Чтобы этого не случилось, надо установить четкие критерии. Сначала надо проверить производительность изолированно. Если требуемая скорость работы не достигается в однопользовательском режиме, в реальной эксплуатации все будет еще медленнее. Запишите полученные результаты и сравнивайте их с предыдущими и последующими проверками. Так намного проще будет найти модуль, который раньше работал одну секунду, а теперь выполняется минуту. Следующий шаг — проверить масштабируемость и протестировать приложение (или заложенные в него идеи) под предполагаемой нагрузкой, чтобы убедиться, что создаваемое решение будет масштабироваться. При тестировании многие проверяют функциональность. Я проверяю масштабируемость. Теперь, когда все модули приложения впервые собраны вместе, необходимо потратить время и усилия на обеспечение его масштабируемости и проверить, будет оно "летать" или нет. Именно в ходе этой проверки будут выявлены запросы, не использующие связываемые переменные, обнаружены блокирования и конфликты, создаваемые приложением, а также недостатки архитектуры. В ходе проверки масштабируемости эти проблемы становятся до боли очевидными. Если вы хотите успешно внедрить приложение, проверяйте его масштабируемость перед внедрением. Я все время слышу обращения типа: "При разработке мы использовали подмножество реальных данных, и все было отлично. При внедрении системы в производственной среде все стало работать слишком медленно. Помогите нам, пожалуйста!". Единственное, что в этой ситуации можно сделать быстро, — убрать систему с производственного сервера и вернуться к расчетам. Необходимо разрабатывать систему и проверять ее на реальных объемах данных, с которыми она будет использоваться. Полный просмотр 100 строк на машине разработчика проходит успешно. Проблема производительности появляется, когда просматривается 100000 строк, причем одновременно 100 пользователями. Необходимо при разработке использовать реальные данные, реальные таблицы, реальную защиту — все, как будет в действительности. Это единственный способ сразу избавиться от "неэффективных" запросов. Не забудьте записывать результаты проверок производительности — сравнивая их, вы быстро найдете, что именно отрицательно повлияло на производительность. Вы также сможете доказать, что какое-то программное Стратегии и средства настройки или аппаратное решение повысило пропускную способность на столько-то — гадать не придется. Например, следующая последовательность операторов сама по себе работает отлично:

dcae elr l_rec t%rowtype;

begin select * from T into l_rec from T where rownuro = 1 FOR UPDATE;

process(l_rec);

delete from t where t.pk = l_rec.pk;

commit;

end;

Она очень быстро обрабатывает первую запись. Измерив время работы в изолированной среде, вы можете сказать: "Я могу выполнять 5 транзакций в секунду (TPS)". Затем вы экстраполируете это значение и продолжаете: "При запуске 10 таких процессов, можно будет достичь 50 TPS". Проблема в том, что при запуске 10 процессов вы будете обрабатывать те же 5 транзакций в секунду (хорошо, если — 5), поскольку все они будут выполняться последовательно, один за другим, так как блокируют первую запись, а в каждый момент времени это может сделать лишь один процесс. Хорошо, если удается выполнять что-то быстро в изолированной среде, но добиться быстрого выполнения того же самого в многопользовательской среде — принципиально другая задача. Даже если система используется только для чтения, другими словами, блокирование, вроде представленного выше, невозможно, масштабируемость надо проверять. Запросы требуют ресурсов — буферов, ввода/вывода с диска, процессорного времени для сортировки данных и т.д.;

все, что требует ресурсов, необходимо проверять. Блокировка строки в рассмотренном выше примере — лишь один из типов ресурсов, а соревноваться приходится за сотни ресурсов, независимо от типа создаваемой системы. Наконец, последним шагом в процессе настройки должна быть настройка СУБД. Большинство разработчиков ищут то, что я называю параметром инициализации FAST=TRUE, — какую-то простую установку, включив которую в файл инициализации, можно заставить все работать быстрее. Такой установки нет. Настройка СУБД, по моему опыту, дает наименьший рост производительности, если уже используются разумные установки. Крайне редко встречаются случаи, когда экземпляр настроен настолько плохо, что его настройка дает заметный рост производительности, но так бывает действительно редко (например, в буферном кэше хранилища данных сконфигурировано 300 блоков, а надо — 30000 или даже 300000). Настройка приложения, в частности изменение структур базы данных и реализация более производительных алгоритмов, — наиболее плодотворный путь, дающий максимально ощутимые результаты. Часто для решения проблемы почти ничего или вообще ничего нельзя сделать на уровне настройки экземпляра. Теперь вернемся в реальный мир, где приложения просто создаются и не проверяются на масштабируемость, не имеют критериев производительности при разработке и вообще не снабжаются средствами отладки и тестирования. Что с этим делать (кроме как сбежать подальше, чтобы ничего не слышать об этом)? В некоторых случаях для диагностики и решения проблем можно будет использовать ряд существующих средств.

Глава Во многих других случаях необходимо снабдить средствами трассировки сам код, особенно в больших приложениях, состоящих из нескольких взаимодействующих модулей. При поиске проблем в больших приложениях сложно определить даже, с чего начать. Если имеется клиент на Java, взаимодействующий с сервером приложений, который вызывает объект CORBA, изменяющий базу данных, то найти, что именно срабатывает медленно, непросто (если только приложение не предлагает соответствующих средств). Даже после выяснения причины, устранить ее очень сложно. Зачастую самое простое решение — правильное. Чем меньше составных частей необходимо учитывать, тем проще настраивать.

Связываемые переменные и разбор (еще раз) Мы уже несколько раз с разных точек зрения касались темы связываемых переменных. Мы видели, например, что если не использовать связываемые переменные, до 90 процентов общего времени работы может уходить на разбор запросов, а не на их выполнение. Мы видели, как это может повлиять на разделяемый пул — ценнейший ресурс в Oracle. К этому моменту вы уже понимаете, что связываемые переменные определяют производительность системы. Не используйте их, и система будет работать во много раз медленнее, чем могла бы;

кроме того, сократится количество одновременно поддерживаемых пользователей. Используйте их, и жизнь станет намного проще. По крайней мере, не придется возвращаться и исправлять программы, чтобы их можно было использовать. Связываемые переменные важны, поскольку одной из особенностей конструкции СУБД Oracle является максимально возможное повторное использование планов оптимизатора. При получении SQL-оператора или блока PL/SQL, СУБД Oracle сначала просматривает разделяемый пул в поисках точно такого же. Например, в случае SQL-запроса сервер Oracle будет искать, не был ли уже такой запрос разобран и оптимизирован. Если запрос найден и план его выполнения можно использовать повторно, все готово для выполнения. Если же запрос не найден, сервер Oracle должен пройти через трудный процесс полного разбора запроса, оптимизации плана выполнения, проверки защиты и т.д. Это не только требует существенных вычислительных ресурсов процессора (обычно во много раз больше, чем собственно выполнение запроса), но и приводит к блокированию частей библиотечного кэша на сравнительно продолжительные периоды времени. Чем больше сеансов разбирают запросы, тем дольше приходится ждать освобождения защелок в библиотечном кэше, и работа системы постепенно останавливается. Связываемые переменные и их использование — хороший пример того, почему необходимо проверять масштабируемость. В однопользовательской системе постоянный разбор запросов, не использующих связываемые переменные, можно и не заметить. Единственный сеанс будет, конечно, работать медленнее, чем мог бы, но все же "достаточно быстро". А вот при одновременном запуске 10 или 100 таких сеансов, система неизбежно остановится. Избыточно тратятся ценные ресурсы (время процессора, библиотечный кэш, защелки библиотечного кэша). Применяя же связываемые переменные, можно уменьшить использование этих ресурсов во много раз. Я собираюсь еще раз продемонстрировать огромное влияние связываемых переменных на производительность. В главе 1 я показывал это на примере одного сеанса: если Стратегии и средства настройки не используются связываемые переменные, работа приложения замедляется. Там мы видели, что блок кода без связываемых переменных выполняется 15 секунд. Тот же код, но написанный с использованием связываемой переменной выполняется за 1,5 секунды. Здесь я продемонстрирую последствия неиспользования связываемых переменных в многопользовательской среде. Уже понятно, что без связываемых переменных код работает медленнее;

теперь давайте оценим, как их отсутствие повлияет на масштабируемость. Для этого теста я буду использовать следующие таблицы. Обратите внимание: для выполнения этого примера необходим доступ к представлению V$SESSION_EVENT, т.е. наличие привилегии SELECT для представления V$SESSION_EVENT. Кроме того, необходимо установить параметр системы (SYSTEM) или сеанса (SESSION) TIMED_STATISTICS, чтобы получать осмысленные результаты (иначе время выполнения каждого оператора будет равно нулю). Это можно сделать с помощью оператора ALTER SESSION SET TIMED_STATISTICS=TRUE. Начнем с создания глобальной временной таблицы SESS_EVENT, которая будет использоваться сеансом для хранения "предыдущих значений" событий, наступления которых ожидал сеанс. Эта таблица SESS_EVENT будет использоваться для определения ожидаемых сеансами событий, количества ожиданий и времени ожидания в сотых долях секунды.

tkyte@TKYTE816> create global temporary table sess_event 2 on commit preserve rows 3 as 4 select * from v$session_event where 1=0;

Table created.

Теперь создадим "прикладную" таблицу для тестирования:

tkyte@TKYTE816> create table t 2 (c1 int, c2 int, c3 int, c4 int) 3 storage (freelists 10);

Table created Я хочу проверить, что будет происходить при одновременной вставке строк в эту таблицу несколькими пользователями. В главе 6 было показано, как может повлиять наличие нескольких списков свободных мест (freelists) на одновременную вставку, поэтому соответствующая установка уже включена в оператор создания таблицы. Теперь определим, наступления каких событий будет ожидать наше "приложение". Для этого сделаем копию набора текущих ожидаемых событий сеанса, выполним блок кода, который необходимо проанализировать, а затем вычислим продолжительность ожиданий, имевших место при выполнении этого блока кода:

tkyte@TKYTE816> truncate table sess_event;

Table truncated. tkyte@TKYTE816> insert into sess_event 2 select * from v$session_event 4 where sid = (select sid from v$mystat where rownum = 1) ;

3 rows created.

Глава tkyte@TKYTE816> declare 2 l_number number;

3 begin 4 for i in 1.. 10000 5 loop 6 l_number := dbms_random.random;

7 8 execute immediate 9 ' insert into t values (' If l_number || ',' || 10 l_number || ',' || 11 l_number || ',' || 12 l_number || ')' ;

13 end loop;

14 commit;

15 end;

Pages:     | 1 |   ...   | 7 | 8 || 10 | 11 |   ...   | 24 |



© 2011 www.dissers.ru - «Бесплатная электронная библиотека»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.