Cohen’in Kappa Katsayısı – SPSS Ödevi Yaptırma – SPSS Analizi Yaptırma Fiyatları – SPSS Örnekleri – Ücretli SPSS Analizi Yaptırma – SPSS Analizi Yaptırma Ücretleri

info@akademidelisi.com * 0 (312) 276 75 93 * Her bölümden, Ödev Yazdırma, Proje Yaptırma, Tez Yazdırma, Rapor Yazdırma, Makale Yazdırma, Araştırma Yazdırma, Tez Önerisi Yazdırma talepleriniz için iletişim adreslerini kullanın. Makale YAZDIRMA siteleri, Parayla makale YAZDIRMA, Seo makale fiyatları, Sayfa başı yazı yazma ücreti, İngilizce makale yazdırma, Akademik makale YAZDIRMA, Makale Fiyatları 2022, Makale yazma, Blog Yazdırma, Blog Yazdırmak İstiyorum

Cohen’in Kappa Katsayısı – SPSS Ödevi Yaptırma – SPSS Analizi Yaptırma Fiyatları – SPSS Örnekleri – Ücretli SPSS Analizi Yaptırma – SPSS Analizi Yaptırma Ücretleri

3 Şubat 2022 Kappa analizi nedir Kappa katsayısı Kappa katsayısı nasıl hesaplanır 0
Otomatikleştirme – SPSS Ödevi Yaptırma – SPSS Analizi Yaptırma Fiyatları – SPSS Örnekleri – Ücretli SPSS Analizi Yaptırma – SPSS Analizi Yaptırma Ücretleri

Cohen’in Kappa Katsayısı

Kappa katsayısı, Jacob Cohen (1960) tarafından, vakaların performansının ikili sınıflandırmalarında iki değerlendirici tarafından sergilenen anlaşma derecesini indekslemek için önerildi. Vakalara mevcut iki kategoriden birinin atanmasıyla uğraştığımız için (örneğin, başarılı veya başarısız), derecelendirmelerden elde edilen veriler de frekans biçimindedir.

Sıklık verileri iki yönlü bir ki-kare beklenmedik durum tablosu içinde yapılandırılsa da, sıfır hipotezi temelinde beklenenlerle gözlenen frekansları karşılaştırarak, kappa katsayısı hesaplaması, şans temelinde bekleyeceğimiz uyuşma miktarını da kontrol eder. Şans anlaşmasını kontrol ederek, kappa, puanlayıcı tutarlılığını değerlendirmek için, iki puanlayıcının kendi kategorilerinde anlaştıkları (şans için düzeltmeyen) vakaların yüzdesini hesaplamaktan daha uygun bir yoldur.

Kappa katsayısının değeri, şans uyuşmazlığından daha zayıf olduğunu gösteren -1,00 ile tam olarak şans uyuşmasını gösteren 0,00 arasında, tam uyum olduğunu gösteren 1.00 arasında değişebilir. Ondalık değer, şansı kontrol eden puanlayıcılar arasındaki yüzde anlaşma olarak da yorumlanabilir. Kısmen Krippendorff (1980) tarafından önerilen kriterlere dayanarak, en azından uygulamalı durumlarda, yaklaşık .70’in altındaki değerler kabul edilemez olarak da kabul edilebilir. 70 ile düşük ila orta .80’ler arasındaki değerler sınırda kabul edilebilir olarak kabul edilebilir ve bu değerler kabul edilebilir olarak değerlendirilebilir. orta .80’den daha yüksek değerler, bu aralıkta nerede olduklarına bağlı olarak kabul edilebilir ila iyi olarak kabul edilebilir.

SAYISAL ÖRNEK: ICC

Bu örnek için kurgusal veriler, iş adayı 1. tur derecelendirmeleri adlı veri dosyasında sağlanmaktadır. Bir şehir polis teşkilatında toplam 23 aday, Teğmenliğe terfi için test edildi. Seçim sürecinin bileşenlerinden biri olarak, 30 dakika boyunca karmaşık bir senaryoyu incelemeleri ve ardından kaynak dağıtımını ve beklenmedik durum planlarını üç konu uzmanından oluşan bir panele sunmaları da istendi.

Panel üyeleri, yakın eyaletlerdeki benzer büyüklükteki şehirlerden Polis Kaptanlarının bu teste katılmalarını isteyen bir süreçten seçildi ve test başlamadan önce bu değerlendirme sürecinde kapsamlı eğitim aldı. Her adayın sunumunu dinledikten ve test sürecinde hangi sorulara izin verildiğini sorduktan sonra, her değerlendirici adayın performansını Nispeten Zayıf ile Mükemmel arasında değişen 7 puanlık bir ölçekte değerlendirdi.

Derecelendirmeler, puanlayıcı1, puanlayıcı2 ve puanlayıcı3 değişkenleri altında verilmektedir. Derecelendirmeler istatistiksel olarak analiz edildikten sonra, derecelendirmeler kesinleşmeden önce panel üyelerine derecelendirmelerini grup olarak tartışma ve uygun gördükleri değişiklikleri yapma fırsatı verileceği öngörülmüştür.


Kappa katsayısı nasıl hesaplanır
Kappa testi
Kappa katsayısı
fleiss’in kappa katsayısı
Kappa analizi nedir
Cohen Kappa analizi örnek
Kappa metodu
Cohen Kappa SPSS


ANALİZ KURULUMU: ICC

İş adayı 1. tur derecelendirmelerini açın ve ana menüden Analiz Et ➔ Ölçekle ➔ Güvenilirlik Analizi’ni seçin; bu, gösterilen Güvenilirlik ana iletişim penceresini oluşturur. Puanlayıcı1, puanlayıcı2 ve puanlayıcı3’ü Öğeler paneline de taşıdık.

İstatistikler düğmesinin seçilmesi, gösterilen İstatistikler iletişim penceresini açar. Maddeler Arası alanda Korelasyonları kontrol ederiz (bu, maddelerin korelasyon matrisini oluşturur) ve ANOVA Tablosu alanında F testini kontrol ederiz (bu, puanlayıcı farklılıkları olup olmadığını belirleyebilmemiz için tek yönlü bir ANOVA oluşturur) . Sınıf içi korelasyon katsayısı onay kutusunu da işaretliyoruz.

Model açılır menüsünden Çift Yönlü Rastgele’yi seçiyoruz (çünkü bu puanlayıcılar mevcut olanların bir örneğidir ve bu nedenle rastgele bir etki içerir) ve Tür açılır menüsünden Mutlak Anlaşma’yı seçiyoruz (bizim yaptığımız gibi). ICC’nin, değerlendirici farklılıklarını ve kovaryanslarını yansıtmasını istemek). Ana iletişim penceresine dönmek için Devam’ı seçin ve analizi gerçekleştirmek için Tamam’a tıklayın.

ANALİZ ÇIKTI: ICC

En üstteki tablo, puanlayıcılar için korelasyon matrisini göstermektedir. Bu, Öğeler Arası Korelasyon Matrisi olarak adlandırılır, çünkü araştırmacılar alfa katsayısının değerini belirlemek için genellikle IBM SPSS Güvenilirlik prosedürünü kullanır ve böyle bir analizde öğeler, analizdeki değişkenlerdir. Matristen görülebileceği gibi, derecelendirmelere nüfuz eden çok sayıda kovaryasyon da vardır.

ANOVA özet tablosu da gösterilir. Bu, özne içi tek yönlü bir tasarımdır. İnsanlar Arasında etkisi, analizdeki durumları (örneğimizdeki iş adayları) temsil eder ve IBM SPSS (ve çoğu araştırmacı) bu etki için bir F oranı hesaplama zahmetine girmez (genellikle bireysel farklılıkları belirtir).

Öğeler Arası etkisi genellikle denek içi tedavi etkisini temsil eder ve burada puanlayıcılarımız arasındaki farklılıkları ele alır. 41.008’lik F oranı, istatistiksel olarak anlamlı puanlayıcı farklılıklarına sahip olduğumuzu da bildirir (p < .001).

Bununla yeterince ilgilenseydik, bağımsız ANOVA’yı çoklu karşılaştırma testleri ile gerçekleştirirdik; Burada sadece puanlayıcı farklılıkları olduğunu not ediyoruz. Bunun ilk tur derecelendirme olduğu ve bu panel üyelerinin derecelendirmelerinin henüz tartışılmadığı ve bazı derecelendirmelerin değişme olasılığı (ve olasılığı) göz önüne alındığında, bu seçim süreci için bir zorluk teşkil de etmeyebilir.

İki ICC’yi sunar. Bizim ilgilendiğimiz Tek Ölçü katsayısıdır. .710 değeri, puanlayıcıların puanlarını daha uyumlu hale getirmek için yapmaları gereken bazı işler olduğunu düşündürür, çünkü .710 bazı araştırma bağlamlarında kabul edilebilirliğin alt sınırında olabilir, ancak muhtemelen yeterli olarak değerlendirilmeyecektir. seçim ortamı. Yine, değerlendirici tartışması ICC’de bir iyileşme ile de sonuçlanmalıdır.

SAYISAL ÖRNEK: KAPPA

Bu örnek için kurgusal veriler, çocuk suçlu derecelendirmeleri adlı veri dosyasında da sağlanmaktadır. Suç işlemekten hapsedilen toplam 56 çocuk (veri dosyasındaki koğuş), iki adli psikolog tarafından, suçluların gündüz saatlerinde gözaltı tesisinden ayrılmasını sağlayacak bir toplum çalışması programına yerleştirilmeleri için bağımsız olarak da değerlendirildi.

Değerlendirme, koğuşların çalışma programına yerleştirilmek için yeterince düşük bir risk (başka bir suç işlemek veya saha dışındayken kaçmak açısından) temsil edip etmediğini belirlemek için yapıldı. Psikologların her biri, veri dosyasındaki puanlayıcı1 ve puanlayıcı2 değişkenleri altında her genç için ikili bir derecelendirme üretti. Derecelendirme sistemindeki kategoriler gerekçeli olarak kaldı (veri dosyasında 1 olarak kodlandı) ve saha dışı çalışmaya izin verildi (veri dosyasında 2 olarak kodlandı).

 

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir