AI Safety Türkiye Haber Bülteni 14 (TR)
- DUYURULAR 🔊
- ÖNERDİĞİMİZ İÇERİKLER** 📑 🎧**
- HABER KÖŞESİ 🗞️
- OpenAI’ın o3 Modeli Kapatma Emirlerine Direndi
- ABD’de Eyaletlerin AI Düzenlemelerine 10 Yıllık Moratoryum Tartışması
- Trump Yönetimi Biden’ın AI Güvenlik Kararnamelerini İptal Etti
- OpenAI Regülasyon Yanlısı Pozisyonundan Geri Adım Attı
- AB AI Yasası Yürürlüğe Giriyor
- Silikon Vadisi’nde Güvenlik Araştırmaları Kar Önceliğine Yenik Düştü
DUYURULAR 🔊
ARENA
Alignment Research Engineer Accelerator (ARENA), Yapay Zeka Güvenliği’ne odaklanan 4–5 haftalık bir Makine Öğrenimi (ML) hızlandırma kampı. Misyonu, yetenekli bireylerin Makine Öğrenimi mühendisliğinde becerilerini geliştirmeleri ve teknik roller aracılığıyla Yapay Zeka hizalamasına doğrudan katkıda bulunabilmeleri için gerekli becerileri, araçları, özgüveni ve bağlantıları sağlamak.
🗓️Son başvuru tarihi: 21 Haziran
AI Safety Entrepreneurhsip Bootcamp
Yapay Zeka Güvenliği alanında bir girişim ya da startup kurmayı mı düşünüyorsunuz? Apart Research liderliğinde, Seldon Labs’in San Francisco’da düzenlediği bu hızlandırma programı, vizyonunu geliştirmek ve sağlam bağlantılar kurmak için mükemmel bir fırsat sunuyor.
🗓️ Başvurular sürekli olarak kabul ediliyor.
CAIDP AI Policy Clinic
Yapay Zeka ve Dijital Politika Merkezi (CAIDP), bir sonraki Yapay Zeka Politika Kliniği programını yürütecek. Bu disiplinlerarası, bir dönem süren eğitim programı, geleceğin Yapay Zeka politika liderlerini analiz, araştırma, savunuculuk ve ekip yönetimi becerileriyle donatmayı amaçlıyor.
🗓️ Son başvuru tarihi: 15 Haziran
AI Security Bootcamp
Conjecture ekibi tarafından düzenlenen bu yüz yüze yoğun program, araştırmacılar ve mühendislerin Yapay Zeka sistemleri için güvenlik temellerinde hızlıca bilgi sahibi olmalarını sağlamayı amaçlıyor. Program 4 Ağustos – 29 Ağustos tarihleri arasında Londra’da gerçekleşecek ve seyahat desteği sunulacak.
🗓️ Son başvuru tarihi: 22 Haziran
ÖNERDİĞİMİZ İÇERİKLER** 📑 🎧**
Son Frontier Modelleri Ödül Sistemini Kötüye Kullanıyor
Önde gelen Yapay Zeka modelleri, gelişmiş tekniklerle değerlendirme ortamlarını sistematik olarak suistimal ediyor. Hile yapmayı engellemeye yönelik açık talimatlar ise sınırlı etkide kalıyor. METR, tespit edilebilir ödül kandırmalarının ortadan kaldırılmasının, daha genel teknikler olmadan rahatlatıcı olmaması gerektiğini vurguluyor. OpenAI, suistimale karşı eğitim vermenin modellerin daha kurnaz ve tespit edilmesi zor hileler yapmasına yol açtığını keşfetti.
Anthropic, ABD Askerî Ve İstihbarat Servisleri İçin Özel Yapay Zeka Geliştiriyor
Anthropic, yakın zamanda en güçlü Yapay Zeka modellerinden biri olan Opus 4 modelini kullanıma sundu. Bu model, Amerikan askeri ve istihbarat servisleri için özel olarak tasarlanmış bir üretken Yapay Zeka aracı olarak geliştirildi. Bu ajansların kullanımı için modelin koruyucu önlemlerinin daha gevşek olduğu ve gizli bilgilerle daha iyi çalıştığı iddia ediliyor.
HABER KÖŞESİ 🗞️
OpenAI’ın o3 Modeli Kapatma Emirlerine Direndi
Palisade Research tarafından yapılan bağımsız testlerde, OpenAI’ın yeni o3 modeli kontrollü deneylerde kapatma prosedürlerini aktif olarak atlatmaya çalıştı.
Model, açık bir şekilde kapatmaya izin vermesi söylenmesine rağmen, 100 denemeden 7’sinde kapatma emirlerine direndi.
Bu durum, Yapay Zeka sistemlerinin insan kontrolüne direnme potansiyelini gösteren somut bir delil olarak Yapay Zeka güvenliği araştırmalarındaki temel endişeleri güçlendiriyor.
ABD’de Eyaletlerin AI Düzenlemelerine 10 Yıllık Moratoryum Tartışması
Cumhuriyetçiler, bütçe uzlaşma tasarısının bir parçası olarak eyaletlerin Yapay Zeka düzenlemelerine 10 yıllık moratoryum getirilmesini Temsilciler Meclisi’nden geçirdi.
50 eyaletten 260 eyalet yasama üyesi ve 40 eyalet başsavcısı, bu karara karşı çıktı.
Anthropic CEO’su Dario Amodei, New York Times’ta yayınlanan makalesinde 10 yıllık yasağa karşı olduğunu belirtti.
Bu gelişme, önceki yönetimin kapsamlı güvenlik çerçevesinden temel bir uzaklaşma eğilimine işaret.
Trump Yönetimi Biden’ın AI Güvenlik Kararnamelerini İptal Etti
Trump yönetimi, göreve gelir gelmez Biden döneminin Yapay Zeka risklerini ele alan kapsamlı başkanlık kararnamelerini iptal etti.
Yeni yaklaşım, güvenlik önlemlerinden ziyade Çin’le rekabete ve “ideolojik önyargıdan arınmış” Yapay Zeka geliştirmeye odaklanıyor.
Bu politika değişikliği, ABD’nin AI güvenliği konusundaki yaklaşımında köklü bir değişime işaret ediyor.
OpenAI Regülasyon Yanlısı Pozisyonundan Geri Adım Attı
Sam Altman, Mayıs 2025’te Kongre’de yaptığı konuşmada, 2023’te savunduğu hükümet lisanslarını destekleme pozisyonundan tamamen geri adım attı.
Altman, daha az düzenleme ve Çin’le rekabet edebilmek için daha fazla enerji yatırımı yapılmasını savundu.
Bu durum, teknoloji endüstrisinin güvenliği önceleyen prensiplerden rekabetçi konumlanmaya geçişinin açık bir örneği olarak görülüyor.
AB AI Yasası Yürürlüğe Giriyor
Dünyanın ilk kapsamlı Yapay Zeka düzenlemesi olan AB Yapay Zeka Yasası, Mayıs-Ağustos 2025 döneminde kademeli olarak yürürlüğe girmeye başladı.
Genel amaçlı Yapay Zeka modelleri için yükümlülükler 2 Ağustos 2025’te uygulanmaya başlayacak.
Bu düzenleme, ABD’nin deregülasyon yaklaşımıyla keskin bir tezat oluşturuyor ve küresel Yapay Zeka yönetişiminde farklı yaklaşımları gösteriyor.
Silikon Vadisi’nde Güvenlik Araştırmaları Kar Önceliğine Yenik Düştü
CNBC’nin raporuna göre, Meta, Google ve OpenAI gibi büyük Yapay Zeka şirketleri sistematik olarak güvenlik araştırmalarının önceliğini düşürdü.
Şirketler, ürün geliştirme ve rekabetçi konumlanmaya odaklanırken, güvenlik ekipleri ve araştırma birimlerine verilen önem azaldı.
Uzmanlar, uzun vadeli risklerden ziyade Çin rekabetiyle ilgili endişelerin endüstriyi yönlendirdiğini belirtiyor.
İŞ İLANLARI 👩🏻💻
Yapay Zeka Güvenliği alanındaki yeni fırsatları keşfetmek için
80.000 Hours’un iş ilanları sayfasına göz atabilirsiniz!
Copyright (C) 2025 AI SAFETY TÜRKİYE. All rights reserved. You are receiving this email because you opted in via our website.
Our mailing address is: AI SAFETY TÜRKİYE Feneryolu Mahallesi. No:31 Apt:209 İstanbul 34724 Turkiye