Литмир - Электронная Библиотека

– проявление «проблемы кодировок» в сервисах www, e-mail и news оказало колоссальное влияние не только на поставщиков информации, но и на её конечных потребителей: во-первых, увеличивается общее время пребывания людей в Internet (что выгодно провайдерам, в конечном итоге приносящим доход экономике США), во-вторых, большинство непрофессионалов таким образом вынуждается пользоваться для работы с Internet теми программами, в которых поддерживается наибольшее количество таблиц символов и методов кодирования. Как правило, такое ПО относится к одной из двух категорий – произведённое корпорациями в соответствии с их интересами (вероятно, нет необходимости лишний раз перечислять здесь его, мягко говоря, недостатки) или же предлагаемое за отдельные деньги. ПО, принадлежащее к последней категории, скорее всего, будет загружено нуждающимися из Internet, что вытянет из их карманов ещё больше денег в карманы провайдеров.

Наконец, существование «проблемы кодировок», вкупе с чрезвычайно низким качеством перевода «национальных» версий многочисленных программных продуктов (да и всей относящейся к ИТ терминологии, запутанной даже в оригинальных, преимущественно англоязычных, источниках), а то и полным отсутствием таковых, послужило серьёзным толчком к «англификации» мира.

Получается, что сложившиеся (или всё же кем-то намеренно сложенные?) обстоятельства в сфере ИТ фактически в принудительном порядке заставляют всё больше и больше людей изучать английский язык и даже переходить на использование его алфавита, отказываясь от алфавитов своих национальных языков – вспомните-ка так часто вынужденно используемую в www и e-mail транслитерацию! Ажиотаж вокруг этого уже сейчас активно подогревают некоторые псевдонаучные деятели, ненавязчиво убеждающие, в частности, русскоязычную общественность в том, что «лет через 30-40 она естественным образом перейдёт на использование латиницы»…

Чем это грозит накапливаемому в течение веков национальному информационно-культурному потенциалу, вероятно, не менее очевидно, чем стратегический характер «проблемы кодировок». И то, что направлена она не только на отдельно взятый «великий и могучий» русский язык… Уместно обратить внимание на то, что наибольший вред «проблема кодировок» имеет тенденцию причинять именно государствам с наиболее богатыми культурными традициями, таким как Япония, Китай (Тайвань) и Южная Корея. При этом отметим, что данные государства являются преуспевшими в развитии не только культурной, но и, по совместительству технологической базы. Высокотехнологическая промышленность («hi-tech») в этих странах является единственным реальным конкурентом таковой промышленности США. Не правда ли, интересное совпадение?!

***

В завершение статьи хотелось бы привести несколько фактов без комментариев.

В таблице символов японского национального стандарта JIS X 0208-1990 предусмотрено место не только для иероглифов японского языка, но также для букв греческого алфавита и кириллицы; в то же время аналогичные советско-росийские ГОСТы, как было показано выше, не дают пользоваться не то что японскими, но даже собственными, русскими, буквами. Не менее уместно заметить, что ГОСТ уже много лет как нарушает собственные стандарты, и даже сайт этого ведомства выдаёт страницы с использованием таблицы символов CP-1251[12].

В 1991-м году в Испанию была завезена крупная партия западных компьютеров, на которых использовалась таблица символов, не содержащая одной из букв алфавита национального языка (а именно буквы «N под тильдой»). В результате этого произошёл скандал на государственном уровне: «возмущённые возможностью искажения испанских слов (в том числе и ESPAN~A) парламентарии обязали торговых посредников оплатить стоимость адаптации партии компьютеров, а впредь на таможнях осуществлять 'входной контроль'»[13]. Что касается русского ГОСТа, в ряде своих вышеперечисленных творений стандартизировал на государственном уровне отсутствие в таблице символов одной из букв национального алфавита (Ё)…

Несмотря на то, что в российских научных кругах имеется ряд интересных предложений по решению «проблемы кодировок»[14], о серьёзной поддержке их на государственном уровне речи не идёт. Подавляющей части русскоязычной широкой общественности эти предложения вообще неизвестны. Какой уж тут разговор о «национальных интересах»?

На этом разрешите окончить статью. Надеюсь, мне удалось предоставить читателям достаточно пищи для размышлений…

Приложение #1. Предыстория «проблемы кодировок».

Первой системой кодирования, в которой для представления символов естественных языков применялись двоичные последовательности (а в современной компьютерной технике используется тот же самый принцип), была система, которую в 1874-м году реализовал француз Ж. Бодо в своём «печатающем телеграфе». Заметим, что в то время телеграф был ничуть не менее передовым изобретением в сфере ИТ, чем в наше время – компьютер.

Система Ж. Бодо широко применялась и в XX веке, до тех пор, пока телеграф как средство связи окончательно не уступил свои позиции телефону. В 1932-м году CCITT (ныне – ITU-T) зарегистрировал её в качестве международного стандарта под названием «International Telegraphic Alphabet №2», т.е. «Международный алфавит №2 для телеграфа».

Обратим внимание на следующие немаловажные обстоятельства:

Несмотря на то, что на Земле насчитывается более 2500 естественных языков, система, предложенная Ж. Бодо, обеспечивала работу с буквами только одного языка. Заметим, что это был не французский язык, так как в оригинальной версии системы Ж. Бодо не был предусмотрен ряд букв, используемых во французском языке (например, «É»), и даже не латинский – это был английский язык; как известно, в латинском алфавите, в отличие от английского, нет буквы «W», а в системе Ж. Бодо она была предусмотрена.

Из-за технических ограничений, существовавших в XIX веке, в системе Ж. Бодо был использован метод кодирования, при котором каждый символ представлялся с помощью двоичной последовательности длиною в 5 бит, а в таблице символов было всего 64 позиции (как минимум 4 из которых обязательно приходились на долю управляющих последовательностей). Производство более сложно сконструированных технических устройств, на которых можно было бы реализовать более совершенные методы – для представления большего числа символов, – было невыгодно тогдашней промышленности, так как не позволяло ей удерживать более-менее разумные цены на устройства и снимать сверхприбыли одновременно.

В той версии системы Ж. Бодо, что была стандартизирована CCITT как «Международный алфавит №2 для телеграфа», 52 из 64-х позиций в таблице символов были зарезервированы под символы английского языка, цифр и знаков препинания. 9 позиций были зарезервированы под управляющие работой «печатающего телеграфа» двоичные последовательности. Таким образом, для представления символов всех прочих языков оставались 3 позиции, наличие которых CCITT посчитал достаточным основанием для названия данной системы кодирования «международной»…

Приложение #2. Международные организации по стандартизации

Существующий миропорядок: наиболее мощные и влиятельные структуры, контролирующие развитие мировой сферы ИТ, а также компьютерной, программной и телекоммуникационной отраслей.

UN (United Nations) – собственно ООН, Организация Объединённых Наций. Создана в США в 1945-м году. Штаб-квартира, как известно, находится в Нью-Йорке.

Безусловно, у ООН имеются положительные заслуги в части правозащитных и некоторых миротворческих инициатив. В числе наиболее существенных, например, Всеобщая декларация прав человека (1948) и программа World Health Organization (WHO, или ВОЗ – дочерняя структура ООН) по искоренению натуральной оспы (1977).

вернуться

[12]

Прим. ред. – С. Середы: При этом все немного забывают, что в России сейчас, а тем более в СССР ранее, пишут и писали не только на русском, но и на украинском, белорусском, татарском, казахском, молдавском, армянском, грузинском, чеченском, иврите, якутском (саха), литовском, латышском, эстонском и языках многих других национальностей, ныне населяющих СНГ. Можно ли после этого назвать работу ГОСТа в области унификации и стандартизации национальных кодировок хотя бы удовлетворительной? Чем же мы 'не вышли', если китайцы и японцы способны решать такие проблемы, а мы – нет!?

вернуться

[13]

А.И. Катаев. «Текстовый процессор ЛЕКСИКОН (от Н до С)». Москва, 1992, изд-во «Радио и связь», ISBN 5-256-01060-3.

вернуться

[14]

Ю.С. Затуливетер. «Информация и эволюционное моделирование», 2000.

См. http://zvt.hotbox.ru/

4
{"b":"282633","o":1}