Пока наш ТС разоблачает пульсар, небольшая демонстрация из области обработки данных:
А потом выяснилось, что не учли какую то мелочь и ошибка превысила ожидаемый результат в 100 раз...
... средняя точность определения координаты 3 миллисекунды делится на корень от 3*10^6 - общего числа наблюдений звезд 8-9 величины.
Похоже, нашим волгоградским и донецким друзьям зело непонятно, как можно говорить о каких-то достоверных измерениях, если помеха превышает полезный сигнал в сотни, или даже в тысячи раз. Не заговор ли это релятивистов? Или, всё же, наука умеет много гитик?
Забабахаем так любимую ТС компьютерную модель, очень простую:
Пусть измеряемый сигнал имеет значение 1. Добавим к нему случайную помеху +-1000. Т.е. погешности в тысячу раз преышают величину искоемого эффекта. Вот как выглядят последовательные измерения:
595.1; 16,5; -827,2; -601,6; 179.6 ... ;
Тихий ужос, а не наш полезный сигнал. Но, стоит только увеличить число измерений, и эффект выщемляется без проблем. Вот последовательные усреднённые результаты из 20000000 измерений:
0,90; 1,06; 0,92; 1,13; 0,98 ... ;
Т.е., каждое из этих измерений вполне уверенно показывает наш искоемый эффект. Несмотря на то, что помеха была в тысячу раз сильнее, мы сумели выщемить эффект как качественно, так и количественно.
Ларчик открывается просто: при суммировании/усреднении измерений, амплитуда полезного сигнала растёт линейно, а амплитуда случайной помехи - как корень. Каким бы слабым на фоне помех ни был полезный сигнал - при достаточно большом количестве измерений его можно уверенно выделить.
Резюме:
Аргумент, что ошибки в сотни-тысячи раз превышают полезный сигнал нужно вычеркнуть из списка. Это слишком примитивная аргументация уровня
домо... школьников начальных классов.