Son Dakika: Yapay zekanın güvenlik testlerinde ciddi hatalar b - Bilim ve Teknoloji Haberi | Nirvana Haber
Piyasa verileri yükleniyor...

Yapay zekanın güvenlik testlerinde ciddi hatalar bulundu

Yayımlanma Tarihi: 04 Kasım 2025 15:08 | Son Güncelleme Tarihi : 04 Aralık 2025 04:42

Bilim insanları, yapay zekanın güvenliği ve etkinliğini kontrol eden 445 değerlendirme testinde 'sonuçların geçerliliğini zedeleyecek' kusurlar olduğunu belirledi.

HABERİN DEVAMI

İngiltere Yapay Zeka Güvenlik Enstitüsünden bilgisayar bilimciler ile Stanford, Berkeley ve Oxford üniversitelerinin de aralarında bulunduğu 14 kurumdan 29 araştırmacı, 'Önemli Olanı Ölçmek: Büyük Dil Modeli Kıyaslamalarında Yapı Geçerliği' başlıklı bir çalışma gerçekleştirdi.

Çalışmada, yapay zekanın alt dallarından olan doğal dil işleme ve makine öğrenimi alanlarının önde gelen konferanslarından alınan 445 değerlendirme testi sistematik olarak incelendi.

İncelemeler sonucunda, testlerin neredeyse tamamının sonuçların geçerliliğini zedeleyebilecek kusurlara sahip olduğu ortaya çıktı.

Çalışmanın baş yazarı, Oxford İnternet Enstitüsü'nden Andrew Bean, Guardian'a yaptığı açıklamada, kullanılan bu testlerin büyük teknoloji şirketlerinin piyasaya sürdüğü son yapay zeka modellerinin değerlendirilmesinde kullanıldığını söyledi.

Bean, değerlendirme testlerinin yapay zekayla ilgili tüm iddiaların temelini oluşturduğunu vurgulayarak, ortak tanımlar ve sağlıklı ölçümler olmadan modellerin gerçekten gelişip gelişmediğinin anlaşılmasının zorlaştığını kaydetti.

Yorumlar

Yorum yapmak için giriş yapmalısınız

Henüz hiç yorum yapılmamış

İlk yorumu siz yapın ve tartışmayı başlatın!

DAHA FAZLA HABER
Reklam

Hava Durumu

Weather
Istanbul
Hafif yağmur
16 °C

Süper Lig Puan Durumu

1
Galatasaray
14 maç · 10G 3B 1M
33
2
Fenerbahçe
14 maç · 9G 5B 0M
32
3
Trabzonspor
14 maç · 9G 4B 1M
31
4
Göztepe
14 maç · 7G 5B 2M
26
5
Samsunspor
14 maç · 6G 7B 1M
25

Bizi Takip Edin

NirvanaHaber, size daha iyi bir deneyim sunmak için çerezleri kullanır. Çerez Politikamızı okuyarak daha fazla bilgi edinebilirsiniz.