AI Safety Türkiye Haber Bülteni 15 (TR)

AI Safety Türkiye Haber Bülteni 15 (TR)

DUYURULAR 🔊

AI Safety Collab 2025 Summer

ENAIS tarafından yürütülen kapsamlı 8 haftalık giriş programı, iki ayrı alanda ilerlemektedir:

Yapay zekâ yönetişimi (BlueDot müfredatı doğrultusunda),

Yapay zekâ uyumluluğu (AI Safety Atlas ders kitabı doğrultusunda).

Bu program, yapay zekâ güvenliğiyle ilgilenen ve bu alana yeni adım atan kişiler için tasarlanmıştır. Katılımcıların hangi akademik veya mesleki geçmişe sahip olduğu fark etmeksizin herkesin katılımına açıktır.

🗓️ Son başvuru tarihi: 20 Temmuz

AI Safety x Physics Grand Challenge

Apart Research tarafından düzenlenen araştırma hackathon’u, yapay zekâ güvenliği alanındaki kritik sorunları ele almak isteyen fizikçiler için bir giriş noktası olarak tasarlandı. Katılımcılar, benzer teknik geçmişe ve analitik problem çözme tutkusuna sahip kişilerle birlikte çalışma fırsatı bulacaklar.

Etkinlikte iki ayrı çalışma alanı olacak:

Proje odaklı bir track,

Akademik makale (paper) odaklı bir track.

🗓️ Son başvuru tarihi: 25 Temmuz

ÖNERDİĞİMİZ İÇERİKLER** 📑 🎧**

Büyük Veri Merkezleri Neden Önemlidir?

Önde gelen yapay zekâ geliştiricileri ve iddialı yapay zekâ planları olan ülkeler, çok büyük veri merkezlerine milyarlarca dolar yatırım yapıyorlar. Türkiye de büyük bir veri merkezi yatırımı planlarını açıkladı. Eğer yapay zekâ veri merkezleri en stratejik varlıklardan biri haline geliyorsa, bugün bu merkezlerin nasıl ve nerelerde yoğunlaştığını biliyor muyuz?

Yapay Zekâ Yönetişimi Hakkında Nükleer Politikadan Ne Öğrenebiliriz? Uzmanlar Diyor Ki…

Yapay zekâ liderleri teknolojilerini giderek daha fazla nükleer silahlarla kıyaslayıp uluslararası yönetişim organları çağrısında bulunurken, iki politika uzmanı bu bakış açısını sorguluyor. Horowitz ve Kahn, yapay zekânın geniş uygulama alanı, nükleer maddeler gibi kontrol edilememesi ve sürekli değer yaratması nedeniyle nükleer tarzda bir yönetişimin uygun olmadığını savunuyorlar. Yeni uluslararası yapılar oluşturmak yerine, mevcut kurumların, FDA ve havacılık otoriteleri gibi, geliştirilmesini öneriyorlar.

HABER KÖŞESİ 🗞️

ABD Senatosu, Eyaletlerin Yapay Zeka Düzenlemelerini Engelleyecek Moratoryumu Reddetti

Temmuz 2025’te ABD Senatosu, eyalet düzeyindeki yapay zeka düzenlemelerine moratoryum getirmeyi amaçlayan teklifi 99’a 1 gibi ezici bir oy çoğunluğuyla reddetti.

Bu karar, federal hükümetin birleşik bir politika oluşturma çabasının başarısız olduğunu gösteriyor ve eyaletleri ABD’nin fiili yapay zeka düzenleyicileri haline getiriyor.

ABD ve İngiltere, “Yapay Zeka Güvenliği” Politikasını Ulusal Güvenlik Odaklı Olarak Yeniden Tanımladı

Haziran 2025’te ABD, Yapay Zeka Güvenliği Enstitüsü’nü (USAISI) “Yapay Zeka Standartları ve İnovasyon Merkezi” (CAISI) olarak yeniden markalaştırdı. İngiltere de benzer bir adımla kendi enstitüsünü yeniden yapılandırdı.

Her iki ülkenin de yeni misyonu, yapay zeka güvenliği tanımını daraltarak ulusal güvenlik, savunma ve ekonomik rekabete odaklanmak olarak belirlendi.

Bu stratejik eksen kayması, önyargı ve ayrımcılık gibi daha geniş toplumsal zararları ikinci plana atarak, AB’nin hak temelli yaklaşımına karşı bir “Anglosfer Bloğu” oluşturuyor.

Google DeepMind’dan Devrim: AlphaGenome, Genomun “Karanlık Maddesini” Aydınlatıyor

Haziran 2025’te Google DeepMind, insan DNA’sının protein kodlamayan %98’lik kısmının işlevini tahmin edebilen AlphaGenome modelini tanıttı.

Bu atılım, genetik hastalıkların nedenlerini anlamayı hızlandırırken, aynı zamanda yapay zeka destekli biyolojik silah tasarımı gibi riskleri de beraberinde getiriyor.

Modelin başarısı, yapay zeka güvenliği tartışmasını modelin doğruluğundan ziyade, ürettiği doğru bilginin potansiyel kötüye kullanımına risklerine kaydırıyor.

Robotikte “ChatGPT Anı”: Fiziksel Dünyayı Anlayan “Dünya Modelleri” Geliştiriliyor

Meta’nın V-JEPA 2 ve 1X Technologies’in Redwood AI gibi “dünya modelleri”, robotların fiziksel gerçekliği anlamasını ve eylemlerinin sonuçlarını tahmin etmesini sağlıyor.

Bu ilerleme, yapay zekanın bilinen önyargı, kırılganlık ve öngörülemezlik gibi sorunlarını dijital alandan fiziksel alana taşıyor.

Gelişme, bedensiz dil modellerinden (LLM’ler) bedenlenmiş zekaya (robotlar) geçişi işaret ediyor ve “Bedenlenmiş Yapay Zeka Güvenliği” (Embodied AI Safety) adlı yeni bir araştırma alanı gerektiriyor.

İŞ İLANLARI 👩🏻‍💻

Yapay Zeka Güvenliği alanındaki yeni fırsatları keşfetmek için 

80.000 Hours’un iş ilanları sayfasına göz atabilirsiniz!

İlanları inceleyin!

  ✍🏻 Bize geri bildirim verin!

Copyright (C) 2025 AI SAFETY TÜRKİYE. All rights reserved. You are receiving this email because you opted in via our website.

Our mailing address is: AI SAFETY TÜRKİYE Feneryolu Mahallesi. No:31 Apt:209 İstanbul 34724 Turkiye