Определение метра как основной единицы измерения длины в Международной системе единиц (СИ) менялось с течением времени, переходя от физических эталонов к константам природы для достижения максимальной точности. Современное определение С 1983 года метр определяется через скорость света в вакууме. Согласно этому определению, 1 метр — это расстояние, которое проходит свет в вакууме за промежуток времени, равный 1 / 299 792 458 секунды. Это определение является абсолютным, так как скорость света признана фундаментальной физической константой. Соотношение с другими единицами В рамках десятичной системы мер 1 метр равен:
- 10 дециметрам;
- 100 сантиметрам;
- 1000 миллиметров;
- 0,001 километра.
В английской и американской системах мер:
- ~39,37 дюйма;
- ~3,2808 фута;
- ~1,0936 ярда.
История возникновения Первоначальное определение метра было предложено во Франции в 1791 году. Тогда метр задумывался как одна десятимиллионная доля расстояния от Северного полюса до экватора, измеренного вдоль меридиана, проходящего через Париж. Позже, в 1889 году, был изготовлен физический эталон — стержень из сплава платины и иридия с особым X-образным сечением. Этот образец хранится в Международном бюро мер и весов в Севре (Франция). Однако из-за того, что физические объекты могут подвергаться микроскопическим изменениям, наука перешла к вычислениям на основе длины световой волны, а затем и к фиксации через скорость света. Хотите узнать, как на практике измеряют такие точные расстояния с помощью лазерных интерферометров?