İstatistik, veri toplama, analiz etme, yorumlama ve sunma ile ilgilenen bir matematik dalıdır. Çevremizdeki dünyayı anlamak için güçlü bir araçtır ve varsayımlardan ziyade verilere dayalı kararlar almaya yardımcı olur.
İstatistiğin iki ana dalı vardır: Betimsel İstatistik ve Tümevarımsal İstatistik .
Merkezi Eğilim Ölçüleri, bir veri kümesini, o veri kümesindeki merkezi konumu belirleyerek özetlemek için kullanılır. En yaygın ölçüler ortalama, medyan ve moddur.
Varyasyon Ölçüleri, verilerin nasıl dağıldığını veya yayıldığını açıklar. En yaygın ölçüler aralık, varyans ve standart sapmadır.
Çıkarımsal istatistikler, rastgele değişkenliğe tabi olan verilerden sonuçlar çıkarır. Buna gözlemsel hatalar, örnekleme değişkenliği vb. dahildir. Bir örneğe dayanarak popülasyon hakkında çıkarımlarda bulunmakla ilgilidir.
Hipotez Testi, istatistiksel çıkarım yöntemidir. Verilerin belirli bir hipotezi destekleyip desteklemediğine karar vermek için kullanılır. Bu, p-değerinin veya gözlenen anlamlılığın, genellikle 0,05 olan önceden belirlenmiş bir anlamlılık düzeyiyle karşılaştırılmasını içerir.
Güven Aralıkları, örnek verilerinden türetilen ve belirli bir güven düzeyinde bilinmeyen bir popülasyon parametresinin değerini içerdiğine inanılan bir değer aralığıdır. Örneğin, ortalama için %95 güven aralığı, aynı popülasyon birden fazla kez örneklenirse ve aralıklar hesaplanırsa, bu aralıkların yaklaşık %95'inin gerçek popülasyon ortalamasını içereceği anlamına gelir.
Regresyon Analizi, iki veya daha fazla değişken arasındaki ilişkiyi inceleyen istatistiksel bir yöntemdir. Örneğin, doğrusal regresyon, bir değişkenin değerini başka bir değişkenin değerine göre tahmin etmek için kullanılabilir. Basit bir doğrusal regresyon çizgisinin denklemi \(y = \beta_0 + \beta_1x\) şeklindedir, burada \(y\) bağımlı değişkendir, \(x\) bağımsız değişkendir ve \(\beta_0\) ve \(\beta_1\) sırasıyla çizginin y-kesişimini ve eğimini temsil eden katsayılardır.
Veri toplama, istatistiksel analiz sürecinde kritik bir adımdır. Sonuçların geçerli ve güvenilir olduğundan emin olmak için veriler uygun şekilde toplanmalıdır. Yaygın yöntemler arasında anketler, deneyler ve gözlemsel çalışmalar bulunur.
Olasılık, belirsizliğin nicelleştirilmesine olanak tanıdığı için istatistikte temel bir rol oynar. Olasılık, bir olayın gerçekleşme olasılığı olarak düşünülebilir ve 0 (imkansız) ile 1 (kesin) arasında değişir.
Olasılık için temel formül şudur: P(A) = Olumlu sonuçların sayısı ∕ Olası sonuçların toplam sayısı
Nerede:
Önemli kurallardan biri, iki veya daha fazla karşılıklı olarak birbirini dışlayan olayın meydana gelme olasılığının, bu olayların bireysel olasılıklarının toplamına eşit olduğunu belirten Toplama Kuralı'dır . Formül \(P(A \textrm{ veya } B) = P(A) + P(B)\) şeklindedir; \(A\) ve \(B\) nin karşılıklı olarak birbirini dışladığını varsayarsak.
Bir diğer temel kavram ise, iki veya daha fazla bağımsız olayın birlikte meydana gelme olasılığını hesaplamak için kullanılan Çarpım Kuralı'dır . Formül şudur \(P(A \textrm{ Ve } B) = P(A) \times P(B)\) .
Bu kavramları ve istatistik araçlarını anlamak, bireylere varsayımlardan ziyade verilere dayalı bilinçli kararlar alma gücü verebilir. Karmaşık veri kümelerini analiz etmek için temel oluşturur ve ekonomi, bilim ve halk sağlığı gibi çeşitli alanlardaki ilerlemelere önemli ölçüde katkıda bulunur.