Следующее определение интерференции дает Лингвистический энциклопедический словарь под редакцией В.Н. Ярцевой:
«Интерференция – результат взаимодействия языковых систем в условиях двуязычия, складывающегося либо при языковых контактах, либо при индивидуальном освоении неродного языка; выражается в отклонениях от нормы и системы второго языка под влиянием первого» [5, с.197].
В своей работе «Интерференция в переводе» В.В. Алимов также обращает внимание на тот факт, что на протяжении многих лет языковая интерференция рассматривалась как лингвистическое явление в результате непосредственного языкового контакта, в условиях посреднической деятельности интерференция практически не рассматривалась [1, с. 35]. В целом данное утверждение соответствует действительности, хотя стоит сказать, что идея о подобном подходе к изучению перевода и интерференции в посреднической деятельности высказывалась неоднократно в работах У. Вайнрайха, А. Мартине, Х. Шухардта, Ж. Мунена и др. Но практически все ученые смотрели довольно скептически на возможность такого исследования, предполагая, что «перевод, рассматриваемый как языковой контакт в случаях особого билингвизма, может предоставить в распоряжение лингвиста лишь весьма скупой урожай примеров интерференции по сравнению с тем, что может предоставить прямое наблюдение любого двуязычного народа» [8, с. 39].
С данным утверждением сложно спорить, тем более что результаты (их количество), полученные в ходе в том числе и наших исследований [1.- А., 2.-А], в целом свидетельствуют в пользу такой позиции. Однако, нельзя отрицать тот факт, что интерференция в переводе представляет особый интерес, связанный со спецификой переводческой деятельности, так как в данном случае мы можем наблюдать «сбои» при «профессиональном билингвизме» (А.Мартине), ведь у переводчика при переводе степень контроля информации на выходе должна быть заведомо гораздо выше, чем у обычного билингва при переключении с языка на язык. Возникает вопрос о том, почему, несмотря на осознанную установку избежать вторжения системы исходного языка в систему языка перевода, переводчик все-таки остается под влиянием исходного языка? Тем более удивительно, если подобная картина наблюдается при переводе на родной доминантный язык (коим в данном исследовании является русский). Все это лишь еще раз подтверждает значимость и необходимость изучения проблемы интерференции в переводе с целью прояснения механизмов и причин ее возникновения, а также выработки способов, которые позволили бы ее избежать.
Большой шаг в этом направлении уже был сделан в 1989 году, когда в Лейпциге вышел сборник «Интерференция в переводе» (Interferenz in der Translation). И хотя эта книга представляет собой сборник статей, довольно пестрый с точки зрения проблематики и методологии, и не дает комплексного анализа проблемы интерференции в переводе, здесь намечаются основные пути и направления исследований [14].
Однако проблема интерференции в переводе остается, на наш взгляд, мало изученной. И тот факт, что она не предоставляет исследователям значительного количества фактического материала, играет не последнюю роль в такой «непопулярности» данного феномена. Так или иначе, при изучении интерференции в переводе встает проблема анализа большого количества текстов. Желание облегчить и ускорить процесс обработки материала возникает само собой у всякого исследователя. Прогресс в сфере информационных технологий дает исследователям (в том числе лингвистам и литературоведам) необходимый инструментарий, который позволяет делать больше за меньшее время.
На стыке информатики и языкознания родилась компьютерная лингвистика, что обусловлено потребностью в общении с компьютером на естественном языке. Лингвистические технологии находят множество областей применения, начиная с несложных программ проверки орфографии, до более изощрённых алгоритмов, используемых в поисковых системах, программах автоматического реферирования, машинного перевода, экспертных системах. На современном этапе развития информатизации всех сфер деятельности человека практически от каждого профессионала требуются умения представления и обработки информации. Сегодня в сети Интернет представлены ряд бесплатных версий программ, связанных с анализом текстов и вычислительной лингвистикой. Все многообразие таких программ можно разделить на следующие группы:
· программы анализа и лингвистической обработки текстов;
· программы преобразования текстов;
· психолингвистические программы;
· системы обработки естественного языка;
· генераторы текстов и "говорящие" программы;
· словари и тезаурусы [4].
Основа исследования любого лингвиста - это работа с текстом, попытка взять из источника всю информацию, которая может содержаться в нем в явном или неявном виде. Однако зачастую бывает довольно трудно снять "неявную" информацию, выявить неочевидные при обычном рассмотрении связи. Компьютерный анализ текстов представляет собой одну из наиболее перспективных областей применения математических методов и ИТ в гуманитарном исследовании. Именно здесь существует большой спрос на современные программные средства компьютеризированного анализа текстовых структур и их компьютерной визуализации.
В Т.Н. Лукиных выделяет ряд основных методик, лежащих в основе практически всех программ по компьютеризованному текстовому анализу: контент – анализ, кластерный анализ, анализ стиля.
Контент - анализ. А.Н.Петров выделяет в понятии «контент-анализ» два различных метода: «метод для автоматической классификации документов по содержанию и метод для раскрытия значения слов и идей» [10]. В качестве исходного материала исследователь должен иметь оцифрованный /машиночитаемый текст в распознанном виде. Для осуществления «контент-анализа» изучаемый текст сводится к набору ограниченного количества лексических элементов, которые затем подвергаются счету и анализу. Метод применяется уже с 50-х гг. «Автоматическая классификация документов в течение ряда лет используется в историко-социальных науках и библиографических системах поиска. Текст, его резюме или заголовок служат основами классификации. Напротив, семантический контент - анализ нацелен на определение организации слов вокруг идей или понятий в большей степени, чем на организации текста. Суть подхода заключается в сведении изучаемого текста к ограниченному набору определенных элементов, которые затем подвергаются счету и анализу на базе фиксации частоты повторяемости символов и их корреляции друг с другом. Слова в тексте при этом классифицируются в соответствии с их дистанционными связями между собой. Для этого используется лингвистическая и статистическая техника, например кластерный анализ или анализ связей» [10]. На использовании контент-анализа построены программы TACT, ARRAS, TextPack, SYREX, SATO.
Кластерный анализ (анализ текста). Выявление и подсчет частот встречаемости лексических единиц (слов, словосочетаний), определение их связей между собой. Обычно используется как дальнейший этап работы с текстом после осуществления контент-анализа.
Анализ стиля. Предполагает выявление характерных грамматических и синтаксических конструкций, определение лексического запаса автора текста. Позволяет классифицировать текст по авторству. История современной статистической стилистики вообще восходит к 1851 году, когда было высказано мнение о том, что длина слов может быть доказательством различия стилей писателя [7].
Лингвисты в настоящий момент владеют значительным инструментарием для текстового анализа и даже для генерации текстов. Так, на сайте РВБ (Русская виртуальная библиотека) размещен каталог лингвистических программ и ресурсов Сети (http://www.rvb.ru/soft/index.html) [11]. Данный каталог включает в себя описание программ, связанных с анализом текстов и вычислительной лингвистикой, а также соответствующих ресурсов, доступных сегодня в глобальной сети Интернет. По словам авторов, упор при составлении каталога делался на бесплатные программы, доступные для загрузки или использования в режиме on-line. Также описаны коммерческие версии некоторых наиболее интересных программ. Тематически каталог разбит на следующие разделы:
1 - программы анализа и лингвистической обработки текстов(ex.: TextAnalyst, АОТ и др.);
2 - программы преобразования текстов (TextTransformer, XReplacer);
3 - психолингвистические программы (ПСИ-Офис, ВААЛ-мини);
4 - генераторы текстов (RWC);
5 - системы обработки естественного языка и машинного перевода (Автоматический словарь Мультитран, Google Переводчик);
6 - каталоги и коллекции ресурсов (Каталог программ по вычислительной лингвистике, Справочно-информационный портал "Русский язык", LTI Projects, The Linguist List);
7 - словари и тезаурусы (ФЭБ словари, словари Ожегова и Зализняка, WordNet, толковый словарь Merriam-Webster);
8 - поисковые машины и системы полнотекстового поиска (ARM Engine, Convera Retrierval Ware);
9 - системы синтеза и распознавания речи (Sakrament Text-to-Speech Engine, Text-To-Speech Converter for MS Word, BookMania).
Это перечень лишь некоторых программ, которые могут быть использованы лингвистами при обработке текстов.
Говоря о возможностях применения ИТ при исследовании языковой интерференции в переводе, следует отметить, что, на наш взгляд, это можно осуществлять как на этапе изучения самого явления интерференции (1), так и на этапе ее преодоления (2).