>2. В смысле не гарантирует точность??? Nvidia S20XX серии имеет ECC, но
>точность такая же, как и на 10 серии... А оперативка с ECC? =)
Простой пример.
Как-то преподаватель нам рассказывал интересную вещь.
В этой вселенной есть свои законы, соотношения и коэффициенты относительно гравитации.
Вот если в одном коэффициенте в 19(девятнадцатом) знаке после запятой оказались бы другие числа, то были бы большие проблемы для создания живых клеток.
Т.е. точность 10^19.
С другой стороны, в свое время производитель терабайтных винтов сказал, что-то типа "может сглючить один байт на терабайт".
Терабайт - это 10^12 байт.
Т.е. при записи 10^19 байт данных, у вас вполне могут испортиться 10 мегабайт (10^7).
Но, я понимаю, что вы не будете записывать на жесткий все 10^19 байт данных)
Вы их посчитаете в оперативке.
Как дела с соотношением ошибок у оперативки - не знаю.
Но суть в том, что если она больше, чем 1/10^19, то в рассчеты может закрасться ошибка.
И, если рассчеты были для синтезирования нового белка, то я бы не рекомендовал его есть)