AI Safety Türkiye Haber Bülteni 13 (TR)

AI Safety Türkiye Haber Bülteni 13 (TR)

DUYURULAR 🔊

Mila Yapay Zeka Politika Bursu

Bilimsel direktörlüğünü Yoshua Bengio’nun yürüttüğü, Montreal merkezli bir Yapay Zeka araştırma enstitüsü olan Mila, hukuk, sosyoloji ve felsefe gibi çeşitli alanlardan genç profesyonelleri bir araya getirerek Yapay Zeka Yönetişimi’nin karmaşık sorunlarını ele almayı planlıyor.

🗓️Son başvuru tarihi: 2 Haziran

Tekil Modellerin Ötesinde: The Martian Routing Hackathon

Apart Research ve Martian, model yönlendirme ve değerlendirme yoluyla daha akıllı Yapay Zeka sistemleri geliştirmeye odaklanan çığır açıcı bir hackathon düzenliyor. Katılımcılar, model çıktılarının kalitesini değerlendirmek için “hakemler” ve sorguları en uygun modellere yönlendirmek için “yönlendiriciler” geliştirecek. Amaç, daha güvenli ve daha verimli Yapay Zeka sistemleri oluşturmak.

🗓️ Son başvuru tarihi: 30 Mayıs

Yapay Zeka Uyum Araştırmaları Mentorluk Programı (MARS) 3.0

Cambridge AI Safety Hub (CAISH) tarafından yürütülen bu araştırma programı, öğrenci ve profesyonel düzeyindeki araştırmacı adaylarını, Yapay Zeka Güvenliği alanında deneyimli mentorlarla buluşturuyor. Katılımcılar, teknik ya da politika odaklı alanlarda yarı zamanlı projeler üzerinde çalışacak.

🗓️ Son başvuru tarihi: 18 Mayıs

CBAI Yaz Araştırma Bursu

Cambridge Boston Alignment Initiative (CBAI) tarafından düzenlenen bu yoğun tempolu ve tam burslu 8 haftalık program, hem teknik hem de yönetişim alanlarında Yapay Zeka Güvenliği alanında kariyerlerini ilerletmeyi hedefleyen yetenekli araştırmacılara destek sağlamak için tasarlandı. Bursiyerler, deneyimli mentorlarla yakın bir şekilde çalışacak, atölye çalışmalarına ve seminerlere katılacak, araştırma deneyimi kazanacak ve ağ kurma fırsatları elde edecekler.

🗓️ Son başvuru tarihi: 18 Mayıs

ML4Good Governance Europe – Temmuz 2025

ML4Good’un, etkili Yapay Zeka Yönetişimi katkıları sağlamak için gereken becerileri geliştirmeyi amaçlayan ilk bootcamp’i. Fransa’da düzenlenecek bu ücretsiz yüz yüze programda, teknik kodlama oturumları yerine yönetişim, strateji, iletişim ve kampüs sonrası planlama odaklı atölye çalışmaları yapılacak. Programa katılmak için önceden teknik bilgi gerekmiyor.

🗓️ Son başvuru tarihi: 21 Mayıs

Ulusal Güvenlik Hukuku ve Yapay Zeka

Vista Institute for AI Policy tarafından sunulan bu yarı zamanlı kurs, hukuk ve politika yüksek lisans öğrencileri, yeni mezunlar, politika profesyonelleri ve AI ulusal güvenlik riskleriyle ilgilenen personel için tasarlanmıştır. Katılımcılar, temel hukuki çerçeveleri ve Yapay Zeka hukuku ile politika alanındaki kritik konuları ele alan uzman liderliğindeki öğle arası oturumlarına katılacaklar.

🗓️ Son başvuru tarihi: 25 Mayıs

Yapay Zeka Ajanları ve Hukuk

Vista Institute for AI Policy tarafından sunulan bu çevrimiçi kurs, Yapay Zeka ajanlarının hukuki geleceğini anlamak ve şekillendirmek için bir yol sunuyor.

🗓️ Son başvuru tarihi: 25 Mayıs

ÖNERDİĞİMİZ İÇERİKLER** 📑 🎧**

Uluslararası Yapay Zeka Güvenliği İşbirliğinde Yeni Bir Bölüm: Singapur Mutabakatı ve Küresel Yapay Zeka Güvenliği Araştırma Öncelikleri

En son Yapay Zeka Eylem Zirvesi, Yapay Zeka Güvenliği konusunda uluslararası koordinasyonun popülerliğini kaybettiğini gösterse de, Singapur Mutabakatı Küresel Yapay Zeka Güvenliği Araştırma Öncelikleri konusunda cesur bir misyon üstlenerek, ABD ve Çin de dahil olmak üzere tüm ülkelerden araştırmacıları, en gelişmiş Yapay Zeka sistemlerinin güvenli bir şekilde nasıl inşa edilebileceğini araştırmak üzere bir araya getirmeyi amaçlıyor.

Yorumlanabilirlik, Aldatıcı Yapay Zekayı Güvenilir Bir Şekilde Tespit Etmeyecek

DeepMind’da Mekanistik Yorumlanabilirlik Ekibi’ni yöneten Neel Nanda, mevcut araştırma paradigmalarıyla (yorumlanabilirlik dahil) süper zekalı Yapay Zeka’nın güvenliğini değerlendirme veya izleme konusunda yüksek güvenilirlikte yöntemler elde etmenin olası olmadığını savunuyor. Nanda, en iyi yorumlanabilirlik tekniklerinin bile hizalanmamış davranışları güvenilir bir şekilde tespit etmede neden yetersiz kaldığını ve bunun neden devam edeceğini açıklıyor. Yorumlanabilirliği güvenlik araç setinin faydalı bir parçası olarak görse de, daha pragmatik, katmanlı ve “çok yönlü” bir savunma stratejisi öneriyor.

HABER KÖŞESİ 🗞️

ABD Hükûmetinden “Woke AI” Tepkisi

Trump hükûmeti, Yapay Zeka sistemlerindeki “politik doğruculuğu” hedef alan bir tutum benimsiyor.

Temsilciler Meclisinin bir komitesi, büyük teknolojik şirketlerine algoritmik yanlılığı azaltma çabaları hakkında çağrıda bulundu.

Ayrıca, Ticaret Bakanlığının standartlar enstitüsü NIST, rehber dokümanlarından “AI güvenliği” ve “sorumlu AI” gibi ifadeleri çıkardı ve bunların yerine Yapay Zeka araştırmacılarına modellerdeki ideolojik önyargıları azaltmaya odaklanmaları talimatını verdi.

ABD Hükûmeti Yapay Zeka Güvenlik Önlemlerini Kaldırdı

Beyaz Saray, Biden hükûmeti dönemindeki Yapay Zeka Güvenliği ve şeffaflık önlemlerini kaldırdı ve federal kurumlara Yapay Zeka teknolojilerini hızla benimsemeleri yönünde talimat verdi.

7 Nisan’da yayımlanan genelge, Yapay Zeka kullanımındaki bürokratik kısıtlamaları kaldırarak Amerikan malı Yapay Zeka sistemlerin kullanımını teşvik etmeyi hedefliyor.

Anthropic’ten Yapay Zeka “Yorumlanabilirliği” Çağrısı

Anthropic CEO’su Dario Amodei, kişisel blogunda AI modellerinin nasıl “düşündüğünü” anlamanın önemini ve aciliyetini vurgulayan bir yazı yayınladı.

Açıklamada, kontrol edilemeyen AI sistemlerinin toplum için kabul edilemez riskler oluşturduğu ifade edildi.

Amodei’nin ilgili yazısına buradan ulaşabilirsiniz.

İŞ İLANLARI 👩🏻‍💻

Yapay Zeka Güvenliği alanındaki yeni fırsatları keşfetmek için 

80.000 Hours’un iş ilanları sayfasına göz atabilirsiniz!

İlanları inceleyin!

  ✍🏻 Bize geri bildirim verin!

Copyright (C) 2025 AI SAFETY TÜRKİYE. All rights reserved. You are receiving this email because you opted in via our website.

Our mailing address is: AI SAFETY TÜRKİYE Feneryolu Mahallesi. No:31 Apt:209 İstanbul 34724 Turkiye