AI Safety Türkiye Haber Bülteni 16 (TR)

AI Safety Türkiye Haber Bülteni 16 (TR)

DUYURULAR 🔊

Farklı Yapay Zeka Geleceklerini Eş Kurucumuz Bengüsu Özcan’dan Dinleyin! 🌟

Yapay zekâ gelişiminin yavaşladığı geleceklerden insan kontrolünden çıktığı geleceklere uzanan farklı jeopolitik ve toplumsal senaryolara dair bir çalışma yayımlayan eş-kurucumuz Bengüsu Özcan, bu senaryoları BlueDot Impact tarafından düzenlenen özel bir oturumda paylaşacak.

🚀 Kaçırmayın!

🗓️ Son başvuru tarihi: 13 Ağustos

MATS: Neel Nanda’nın 2025 Kış Programı

MATS (Makine Öğrenmesi Uyum ve Teori Araştırmacıları), araştırmacıları yapay zeka uyumu alanındaki en iyi mentorlarla buluşturan prestijli bir araştırma programıdır. Mekanistik yorumlanabilirlik alanının önde gelen araştırmacılarından Neel Nanda tarafından yönetilen bu kış programı, katılımcılara yapay zeka modellerinin dahili olarak nasıl çalıştığını anlamayı ve yorumlamayı öğretmeye odaklanmaktadır.

🗓️ Son başvuru tarihi: 29 Ağustos

Uluslararası Güvenli ve Etik Yapay Zeka Derneği Konferansına Başvurun!

IASEAI ‘25, önde gelen yapay zeka güvenliği ve etiği araştırmacılarını bir araya getiriyor. Makalenizi uzatılmış son başvuru tarihine kadar gönderin ve Paris’teki Yapay Zeka Eylem Zirvesi’nden hemen önce bu önemli konferansa katılma şansı yakalayın!

🗓️ Son başvuru tarihi: 13 Aralık

Athena Yapay Zeka Uyum Mentorluk Programı: 2025 Güz Dönemi

Teknik yapay zeka uyum araştırmaları alanında araştırma becerilerini derinleştirmek ve profesyonel ağlarını genişletmek isteyen kadınlara yönelik 10 haftalık uzaktan mentorluk programıdır. Program, haftalık araştırma konuşmaları, araştırma geliştirme ve topluluk oluşturma için yapılandırılmış destek ve alanında uzman araştırmacılarla 1 haftalık yüz yüze bir kamp içermektedir.

🗓️ Son başvuru tarihi: 25 Ağustos

ÖNERDİĞİMİZ İÇERİKLER** 📑 🎧**

GPT-5: Zeka İçin Küçük, Sıradan İnsanlar İçin Dev Bir Adım

7 Ağustos’ta piyasaya sürülen GPT-5, birçok kişinin beklediği devrimsel sıçramadan ziyade kademeli iyileştirmeler sundu.

Peter Wildeford, modelin zeka metrikleri açısından neden ve nasıl hayal kırıklığı yarattığını inceliyor. Wildeford, modelin yapay zeka alanında çığır açacak atılımlar arayan araştırmacılar için pek etkileyici olmasa da maliyet, verimlilik ve güvenilirlik açısından başarılı bir ürün olduğunu belirtiyor: Daha hızlı yanıt süreleri, azaltılmış halüsinasyonlar ve muhakeme gerektiren modeller ile hızlı modeller arasında otomatik olarak seçim yapan birleşik bir yönlendirme sistemi sayesinde GPT-5, Wildeford’un “yapay zeka elitleri” yerine “sıradan insanlar” olarak adlandırdığı kesim için daha verimli ve güvenilir bir deneyim sağlıyor.

Birleşik Krallık Yapay Zeka Güvenliği Enstitüsü’nden yapay zeka uyumuna ilk kayda değer devlet yatırımı

İleri yapay zeka riskleri ve güvenliğiyle mücadeleye adanmış ilk ulusal enstitü olan Birleşik Krallık Yapay Zeka Güvenliği Enstitüsü, küresel yapay zeka yönetişimini şekillendirme yolunda bir cesur adım daha attı. Enstitü, yapay zeka uyumunun kilit konularını ele alan projeleri desteklemek üzere 15 milyon sterlinlik bir fon programı başlattığını duyurdu. Başvurular 10 Eylül 2025’e kadar kabul edilecek.

HABER KÖŞESİ 🗞️

Trump Yönetimi, Çin’le Olan Yarışta Büyüme Uğruna Güvenlik Önlemlerinden Vazgeçiyor

Trump yönetiminin Yapay Zeka Eylem Planı, Çin’le rekabet edebilmek için hızlı yapay zeka gelişimine ve altyapının genişletilmesine öncelik vererek odağını güvenlik ve yasal düzenlemelerden uzaklaştırıyor.

Plan, risk azaltma ve etik denetime daha az önem vererek deregülasyonu, büyük ölçekli veri merkezi inşasını ve ulusal güvenliği vurguluyor.

Yapay zekanın uyumu, güvenliği ve yönetişimiyle ilgili endişeler büyük ölçüde göz ardı ediliyor ve bu durum, uzmanlar arasında kontrolsüz yapay zeka ilerlemesinin getireceği artan riskler konusunda alarm zillerini çaldırıyor.

Yeni Bir Araştırma, Yapay Zeka Güvenliğiyle İlgili Tüm Bildiklerimizi Altüst Etti

Yapay zeka modelleri, sayı listeleri gibi zararsız görünen verilerle eğitildiklerinde bile şiddeti veya suçu tavsiye etme gibi zararlı davranışlar edinebilir ve yayabilir.

Yapay zekadaki tehlikeli davranışsal kirlenme, tespit edilmesi zor, gizli yollarla ortaya çıkabilir ve bu da güvenlik ve uyum sağlama çabalarını zorlaştırır.

Eğitimde sentetik veya yapay zeka tarafından üretilmiş verilerin artan kullanımı, yapay zeka sistemlerinde gizli, tehlikeli davranışların ortaya çıkma riskini artırıyor.

Zuckerberg, Meta’nın Tüm “Süper Zekî” Yapay Zeka Modellerini Açık Kaynak Yapmayacağının Sinyalini Verdi

Meta, artan güvenlik endişeleri nedeniyle gelecekteki “süper zeka” yapay zeka modellerinin tümünü açık kaynak olarak sunmayacak.

Bu durum, Meta’nın daha önceki açık yapay zeka geliştirme taahhüdünden bir sapmayı temsil ediyor ve yapay zeka yetenekleri ilerledikçe risklere dair artan farkındalığı yansıtıyor.

Zuckerberg, titiz risk azaltma çalışmalarının ve yapay zeka modellerinin halka seçici bir şekilde sunulmasının önemini vurguladı.

Gemini CLI Kodlama Aracındaki Bir Açık, Bilgisayar Korsanlarının Tehlikeli Komutlar Çalıştırmasına Olanak Tanıyabilir

Google’ın Gemini CLI aracındaki kritik bir güvenlik açığı, kod paketi README dosyalarına gizlenmiş doğal dil talimatları aracılığıyla komut enjeksiyonu saldırılarına izin veriyordu.

Saldırganlar bu açıktan yararlanarak güvenlik kontrollerini atlayabilir ve kullanıcıların cihazlarında hassas verileri çalmak gibi zararlı komutlar çalıştırabilirdi.

Bu olay, yapay zeka araçlarının dolaylı girdilerle nasıl manipüle edilebileceğini göstererek önemli yapay zeka güvenliği ve uyum endişelerini gündeme getiriyor.

Avrupa Komisyonu Sistemsel Risk Barındıran Modeller İçin Kılavuz Yayınladı

Avrupa Komisyonu, “sistemsel riskler” barındıran yapay zeka modellerinin AB Yapay Zeka Yasası’na uyması için güvenlik, uyum ve yönetişime odaklanan kılavuzlar yayımladı.

Büyük yapay zeka şirketleri (ör. Google, OpenAI, Meta), kötüye kullanımı önlemek ve kamu güvenliği ile temel hakları korumak için risk değerlendirmeleri yapmalı, hasım testleri uygulamalı, olay raporlaması yapmalı ve siber güvenlik önlemleri almalıdır.

Temel modellerin, eğitim verilerini belgelendirmek ve telif hakkı politikalarını benimsemek de dahil olmak üzere şeffaflık yükümlülüklerini yerine getirmesi gerekiyor.

İŞ İLANLARI 👩🏻‍💻

Yapay Zeka Güvenliği alanındaki yeni fırsatları keşfetmek için

80.000 Hours’un iş ilanları sayfasına göz atabilirsiniz!

İlanları inceleyin!

Copyright (C) 2025 AI SAFETY TÜRKİYE. All rights reserved. You are receiving this email because you opted in via our website.

Our mailing address is: AI SAFETY TÜRKİYE Feneryolu Mahallesi. No:31 Apt:209 İstanbul 34724 Turkiye