Yapay zekanın güvenliği ve etkinliğini denetleyen yüzlerce test kusurlu çıktı
Yapay zekanın güvenliği ve etkinliğini denetleyen yüzlerce test kusurlu çıktı
Bilim insanları, yapay zekanın güvenliği ve etkinliğini kontrol eden 445 değerlendirme testinde "sonuçların geçerliliğini zedeleyecek" kusurlar olduğunu tespit etti.
Haber Giriş Tarihi: 04.11.2025 15:49
Haber Güncellenme Tarihi: 04.11.2025 15:49
Kaynak:
AA
İngiltere Yapay Zeka Güvenlik Enstitüsünden bilgisayar bilimciler ile Stanford, Berkeley ve Oxford üniversitelerinin de aralarında bulunduğu 14 kurumdan 29 araştırmacı, "Önemli Olanı Ölçmek: Büyük Dil Modeli Kıyaslamalarında Yapı Geçerliği" başlıklı bir çalışma yaptı.
Bilim insanları çalışmada, yapay zekanın alt dallarından olan "doğal dil işleme" ve "makine öğrenimi" alanlarının önde gelen konferanslarından alınan 445 değerlendirme testini sistematik olarak inceledi.
İncelemeler sonucunda, testlerin neredeyse hepsinin "sonuçların geçerliliğini zedeleyebilecek" kusurlara sahip olduğu sonucuna ulaşıldı.
Çalışmanın baş yazarı, Oxford İnternet Enstitüsünden Andrew Bean, çalışmaya ilişkin Guardian'a yaptığı açıklamada, kullanılan bu testlerin büyük teknoloji şirketleri tarafından piyasaya sürülen son yapay zeka modellerinin değerlendirilmesinde kullanıldığını söyledi.
Bean, değerlendirme testlerinin yapay zekayla ilgili tüm iddiaların temelini oluşturduğuna vurgu yaparak ortak tanımlar ve sağlıklı ölçümler olmadan modellerin gerçekten gelişip gelişmediğini anlamanın zorlaştığını kaydetti.
Sizlere daha iyi hizmet sunabilmek adına sitemizde çerez konumlandırmaktayız. Kişisel verileriniz, KVKK ve GDPR
kapsamında toplanıp işlenir. Sitemizi kullanarak, çerezleri kullanmamızı kabul etmiş olacaksınız.
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.
Yapay zekanın güvenliği ve etkinliğini denetleyen yüzlerce test kusurlu çıktı
Bilim insanları, yapay zekanın güvenliği ve etkinliğini kontrol eden 445 değerlendirme testinde "sonuçların geçerliliğini zedeleyecek" kusurlar olduğunu tespit etti.
İngiltere Yapay Zeka Güvenlik Enstitüsünden bilgisayar bilimciler ile Stanford, Berkeley ve Oxford üniversitelerinin de aralarında bulunduğu 14 kurumdan 29 araştırmacı, "Önemli Olanı Ölçmek: Büyük Dil Modeli Kıyaslamalarında Yapı Geçerliği" başlıklı bir çalışma yaptı.
Bilim insanları çalışmada, yapay zekanın alt dallarından olan "doğal dil işleme" ve "makine öğrenimi" alanlarının önde gelen konferanslarından alınan 445 değerlendirme testini sistematik olarak inceledi.
İncelemeler sonucunda, testlerin neredeyse hepsinin "sonuçların geçerliliğini zedeleyebilecek" kusurlara sahip olduğu sonucuna ulaşıldı.
Çalışmanın baş yazarı, Oxford İnternet Enstitüsünden Andrew Bean, çalışmaya ilişkin Guardian'a yaptığı açıklamada, kullanılan bu testlerin büyük teknoloji şirketleri tarafından piyasaya sürülen son yapay zeka modellerinin değerlendirilmesinde kullanıldığını söyledi.
Bean, değerlendirme testlerinin yapay zekayla ilgili tüm iddiaların temelini oluşturduğuna vurgu yaparak ortak tanımlar ve sağlıklı ölçümler olmadan modellerin gerçekten gelişip gelişmediğini anlamanın zorlaştığını kaydetti.
Kaynak: AA
GÜNÜN EN ÇOK OKUNAN HABERLERİ
BAKMADAN GEÇME...
POPÜLER VİDEOLAR