Yapay Zeka Modelleri Kendini Yok Edebilir
Yapay zeka teknolojisiyle ilgili yeni bir tehlike ortaya çıktı. Uzmanlara göre, yapay zeka modelleri kendi ürettikleri anlamsız verilerle eğitilerek “çöküş” yaşayabilir ve kendilerini yok edebilir.
Nature dergisinde yayımlanan bir araştırmaya göre, yapay zeka modelleri kendi kendilerini bozabilir ve orijinal içeriği anlaşılmaz bir saçmalığa dönüştürebilir. Araştırmacılara göre, model çöküşü, modellerin sentetik veriler üzerinde ayrım gözetmeksizin eğitilmesi sonucu ortaya çıkan bir fenomen.
Oxford Üniversitesi’nden araştırmacı Ilia Shumailov, model çöküşünün modellerin verilerin bir kısmı üzerinde eğitim almasına neden olan bir durumu ifade ettiğini belirtti. Araştırmacılar, büyük dil modelleri gibi yapay zeka araçlarının, eğitim veri setinin belirli bölümlerini göz ardı edebileceğine dikkat çekti.
Araştırmacılar, modellerin giderek daha az doğru ve alakalı metinler üzerinde eğitim almaya devam ettikçe, bu özyinelemeli döngünün modelin bozulmasına neden olduğunu tespit etti. Uzmanlar, yapay zeka içeriğinin interneti doldurmasıyla birlikte model çöküşü riskinin daha da arttığını belirtiyor.
Bu durumun, azınlık gruplarının veya görüşlerin daha az temsil edilmesi veya silinmesi riskini ortaya çıkarabileceği uyarısında bulunan Duke Üniversitesi’nden bilgisayar bilimcisi Emily Wenger, modellerin verilerinin dikkatli bir şekilde filtrelenmesinin önemini vurguluyor.
Araştırmacılar, yapay zeka topluluğu genelinde koordinasyonun ve verilerin modeller aracılığıyla beslenirken kökenini izlemenin önemli olduğunu belirtiyor. Ayrıca, LLM’lerin yeni versiyonlarını eğitmek için internetten toplanan verilere veya insanlar tarafından ölçekli olarak üretilen verilere doğrudan erişimin önemli olduğunu vurguluyorlar.