デシメートルとは何ですか?
デシメーターは、測定のメートル法スケールに基づく長さの測定値であり、1/10メートルに相当します。 メートルの正確な長さは時間の経過とともに変化し、最初は地球の赤道と北極の間の距離に基づいていました。 ただし、1960年代以降、メーターの長さは光に基づいており、特定の要素の波長を使用した初期測定と、光の速度に基づいた新しい測定が行われています。 したがって、デシメータの長さは、使用されている標準に応じて異なる可能性がありますが、メートル法の他の測定との関係では変わりません。
メートルやデシメートルなどの測定値が見つかるメトリックシステムは、小数を簡単に利用できる測定システムを作成するという考えに基づいています。 アメリカ標準のフィートとインチなどの他の測定システムは、常に数十または数百のシステムを使用して故障するわけではありません。 たとえば、インチは12分の1フィートであり、他の測定値は多くの場合、1/2インチ、1/4インチ、さらに半分の距離に基づいています。 メトリック測定は、10分の1と100分の1を示す「deci-」や「centi-」などのプレフィックスを使用して、10進数のアプローチを使用してさらに簡単に分割および乗算できる標準を作成するために開発されました。
デシメートルの基準となる1メートルの長さを確立するために使用される初期測定値は、地球の赤道から北極までの距離に基づいていました。 科学者のチームは、1790年代に1メートルの長さを確立する際に使用するこの距離を決定したとして起訴されました。 彼らがこの測定値を取得したら、全長を使用して1メートルの長さをこの距離の1000万分の1に設定しました。 ただし、地球の形状は完全な幾何学的形状ではないため、この距離は完全には計算されず、地球の実際の円周は4,000万メートル(1億3100万フィート)をわずかに超えています。
これらの初期測定以来、メーターの長さおよびデシメーターなどの関連する測定値は数回改訂されています。 最初の大きな変化は、1960年にメーターの長さがクリプトン86の原子からの光の波長に基づいて定義されたときに起こりました。 ただし、光の波長の測定で不完全性を引き起こす可能性のある特定の変数により、これは1983年に再び変更され、光の速度に基づいてメートルとデシメートルの長さが決定されました。 1983年以来のメーターの公式の長さは、光が真空内で1秒あたり1 / 299,792,458秒移動する距離です。 デシメートルは、この長さの1/10です。