>Начнём с того, что при решении задач оптимизации всегда первым этапом идёт
>выпор критериев оптимальности.Это я прекрасно знаю. В данном случае минимизируется переменная "колличество практических проблемм в распространённых ситуациях" - абстрактно, но вполне ясно, imho.
> Соответственно не для всех задач UTF-8 оптимальнее.
Разумеется не для всех, но для большинства наиболее често встречающихся.
> Например,
>некоторые системы хотят предсказуемости, а Вы не можете, например, заранее предсказать,
>сколько места займёт строка из 10 символов в UTF8 (да и
>в UTF16, по-хорошему, тоже).
Т.е. пример самоопровергся :-)
Кстати до того, как я реально вник в техническую сторону вопроса, я думал что лучшая кодировка - UTF-32 - "уж в ней-то точно 1 машинное слово - 1 конкретный символ любого мыслимого языка, красота и однозначность" - думал я. Ан нет - little endian, big endian, ещё какие-то проблемки такого характера. Когда я понял что самая беспроблеммная кодировка Unicode - UTF-8, я был немало удивлён, я ожидал какого угодно варианта, но никак ни этого, но оказалось именно так.
>Или, например, на восьмиразрядных микроконтроллерах использовать многобайтные
>кодировки тот ещё гемор.
Возможно. Но это всего лишь одна специфическая область.