統計学は、データの収集、分析、解釈、および提示を扱う数学の分野です。統計学は、私たちの周りの世界を理解するための強力なツールであり、仮定ではなくデータに基づいて意思決定を行うのに役立ちます。
統計学には、記述統計学と推論統計学という 2 つの主な分野があります。
中心傾向の尺度は、データ セット内の中心位置を特定することで、データ セットを要約するために使用されます。最も一般的な尺度は、平均、中央値、および最頻値です。
変動の尺度は、データがどのように分散または広がっているかを表します。最も一般的な尺度は、範囲、分散、および標準偏差です。
推測統計は、ランダムな変動の影響を受けるデータから結論を導き出します。これには、観測誤差、サンプリング変動などが含まれます。これは、サンプルに基づいて母集団について推測することです。
仮説検定は統計的推論の手法です。データが特定の仮説を支持するかどうかを判断するために使用されます。これには、 p 値、つまり観測された有意性を、事前に決定された有意水準 (通常は 0.05) と比較することが含まれます。
信頼区間は、サンプル データから導き出された値の範囲で、特定の信頼レベルで未知の母集団パラメータの値が含まれると考えられています。たとえば、平均値の 95% 信頼区間は、同じ母集団を複数回サンプリングして区間を計算した場合、それらの区間の約 95% に真の母集団平均値が含まれることを意味します。
回帰分析は、2 つ以上の変数の関係を調べる統計手法です。たとえば、線形回帰は、ある変数の値を別の変数の値に基づいて予測するために使用できます。単純な線形回帰直線の式は\(y = \beta_0 + \beta_1x\)です。ここで、 \(y\)は従属変数、 \(x\)は独立変数、 \(\beta_0\)と\(\beta_1\)はそれぞれ y 切片と直線の傾きを表す係数です。
データ収集は、統計分析プロセスにおける重要なステップです。結果の有効性と信頼性を確保するには、データを適切に収集する必要があります。一般的な方法には、調査、実験、観察研究などがあります。
確率は不確実性の定量化を可能にするため、統計学において基本的な役割を果たします。確率はイベントが発生する可能性と考えることができ、その範囲は 0 (不可能) から 1 (確実) までです。
確率の基本的な式は、P(A) =好ましい結果の数 ÷ 起こり得る結果の総数である。
どこ:
重要なルールの 1 つは加法則です。これは、2 つ以上の相互に排他的なイベントのいずれかが発生する確率は、個々の確率の合計に等しいというものです。式は\(P(A \textrm{ または } B) = P(A) + P(B)\)で、 \(A\)と\(B\)は相互に排他的であると仮定します。
もう 1 つの重要な概念は乗法則です。これは、2 つ以上の独立したイベントが同時に発生する確率を計算するときに使用されます。式は\(P(A \textrm{ そして } B) = P(A) \times P(B)\)です。
統計のこれらの概念とツールを理解することで、個人は仮定ではなくデータに基づいて情報に基づいた決定を下すことができるようになります。これは複雑なデータセットを分析するための基礎となり、経済、科学、公衆衛生などのさまざまな分野の進歩に大きく貢献します。