AI Safety Türkiye haber Bülteni 9 (TR)

AI Safety Türkiye haber Bülteni 9 (TR)

🙋🏻‍♀️Editörün Notu:

Websitemiz aisafetyturkiye.org yapım aşamasında. Bu süre zarfında bize aisafetyturkiye@gmail.com üzerinden ulaşabilirsiniz.

DUYURULAR 🔊

PIBBS Programı

Yapay Zeka Güvenliği alanındaki mentörlerle 3 ay. boyunca yürütülecek olan bu disiplinlerarası program, doğal ve sosyal sistemlerdeki karmaşık ve zeki davranışları inceleyen veya matematik, felsefe ve mühendislik gibi alanlarda çalışan araştırmacılar için tasarlandı.

Yapay Zeka sistemlerini güvenli ve faydalı hale getirme misyonuna ilgi duyan herkes için tarih ve yer yakında duyurulacak!

 🗓️ Son kayıt tarihi: 26 Ocak

Yapay Zeka Uyumu Değerlendirme Hackathonu

Araştırmacıları, geliştiricileri ve meraklı zihinleri, Yapay Zeka Uyumu’nu ölçme (ve geliştirme) sorununu çözmek için bir araya getiriyoruz.

AI-Plans tarafından düzenlenen bu hackathon, eleştirel düşünme, fikirler üzerinde denemeler yapma ve bu kritik sorunda ilerleme kaydetme fırsatı sunuyor.

🗓️ Son kayıt tarihi: 24 Ocak

Anthropic Yapay Zeka Güvenliği Araştırma Programı

Yapay Zeka Güvenliği araştırmalarını hızlandırmayı ve araştırma yeteneklerini geliştirmeyi amaçlayan bu girişim 10-15 bursiyere, Yapay Zeka Güvenliği araştırmaları üzerinde tam zamanlı çalışmaları için finansman ve mentörlük sağlayacak.

 🗓️ Son kayıt tarihi: 20 Ocak

Yapay Zeka Güvenliği Tanıtım ve Sosyalleşme Etkinliği

AI Safety Camp organizatörleri Yapay Zeka Güvenliği tanıtımı üzerine bir tartışma ve Soru-Cevap etkinliği düzenliyor.

🗓️ Son kayıt tarihi: 25 Ocak

Yapay Zeka Güvenliği Girişimcilik Hackathonu

Yapay Zeka Güvenliği’ni geliştirecek girişimcilik fikirleriyle hackathona katılmak için son 3 gün!

🗓️ Son kayıt tarihi: 17 Ocak

ÖNERDİĞİMİZ İÇERİKLER** 📑 🎧**

Teknik Yapay Zeka Güvenliği Araştırma Yönelimleri İçin Öneriler

Anthropic’ten Sam Marks, felaket riski azaltmak isteyen ancak nereden başlayacaklarını bilmeyen yapay zeka araştırmacılarına rehberlik etmeyi anlatıyor ve bugün yapılacak ilerlemelerin, gelecekteki yapay zeka sistemlerinin güvenli ve kontrol edilebilir kalmasını sağlamak için önemli teknik alanları özetliyor.

Yapay Zeka Gelişmelerinin Fark Edilmemesinin Nedenleri

Yapay Zeka’daki büyük gelişmelerin farkında mıyız? Yoksa hâlâ ChatGPT’yi mi konuşuyoruz?

o3 Bizi Büyüledi, Sırada Ne Var?

OpenAI, en son akıl yürütme modeli o3’ü yayımladı; bu model, tüm karşılaştırma testlerinde rekorlar kırarak yapay zeka dünyasında pek çok uzmanın hayran kalmasına neden oldu. Peki, bu, yapay genel zekaya giden yol için ne anlama geliyor?

HABER KÖŞESİ 📰

Nobel Ödüllü Hinton, Yapay Zeka Risk Değerlendirmesini Artırdı:

Yapay zeka alanının öncülerinden ve Nobel Fizik Ödülü sahibi Geoffrey Hinton, yapay zeka kaynaklı insan neslinin tükenmesi riskini önümüzdeki 30 yıl içinde %10-20’ye yükseltti.

Hinton, yapay zekanın hızlı gelişiminden ve insan zekasından üstün sistemleri (ASI) kontrol etmenin zorluğundan endişe duyuyor.

Yapay zeka gelişiminin hızı, Hinton’ın orijinal tahminlerini aştı ve insan zekasını aşan sistemlerin yaklaşık 20 yıl içinde ortaya çıkmasını bekliyor.

Hinton, daha az zeki varlıkların daha zeki olanları kontrol ettiği örneklerin doğada nadir olduğunu ve insan-yapay zeka ilişkisinin benzersiz bir zorluk oluşturduğunu belirtiyor.

Hinton, yapay zekanın güvenli bir şekilde geliştirilmesini sağlamak için devlet müdahalesini savunuyor ve şirketlerin tek başına yeterli olmayacağını öne sürüyor.

OpenAI’ın o3 modeli ARC-AGI’da Rekor Performans Elde Etti:

OpenAI’nin o3 sistemi, ARC-AGI-1 testinde standart hesaplama kısıtlamaları altında %75,7 ve genişletilmiş kaynaklarla %87,5 puan alarak eşi görülmemiş bir performans elde etti.

o3 sistemi, yapay genel zekaya (AGI) doğru ilerlemede kritik bir adımı temsil ediyor ve yapay zekanın geleceği için önemli sonuçlar doğuruyor.

OpenAI, Sora’yı Yayınladı:

OpenAI, gelişmiş metinden videoya yapay zeka modeli Sora’ya erişimi ChatGPT Plus ve Pro abonelerine genişletti.

Bu hamle, OpenAI’yi çok modlu yapay zeka alanında Meta, Google ve Stability AI gibi yerleşik oyuncularla rekabete sokuyor.

Sora’nın yeni sürümü, 1080p çözünürlük, 20 saniyelik video oluşturma ve çeşitli en-boy oranlarını destekleme gibi özellikler sunuyor.

OpenAI, kötüye kullanım malzemelerini hedefleyen içerik filtreleme sistemleri, deepfake önleme protokolleri ve kontrollü insan konusu işleme gibi güvenlik önlemleri uyguladı.

OpenAI, Kamu Yararı Şirketine Dönüşme Planının Detaylarını Yayımladı:

OpenAI, kamu yararı şirketi (PBC) olarak yeniden yapılandığını duyurdu. Bu, yönetim modelinde önemli bir değişimi temsil ediyor.

Yeni yapıda güvenlik protokolleri hakkında sorular devam ediyor ve kâr amaçları ile güvenlik öncelikleri arasında potansiyel bir çatışma olabilir.

İŞ İLANLARI 👩🏻‍💻

Yapay Zeka Güvenliği alanındaki yeni fırsatları keşfetmek için

80.000 Hours’un iş ilanları sayfasına göz atabilirsiniz!

İlanları inceleyin!

TOP PICKS** 📑 🎧**