AI Safety Türkiye Haber Bülteni - 4

AI Safety Türkiye Haber Bülteni - 4

DUYURULAR 🔊

AI Safety Türkiye İstanbul & Ankara Buluşmaları

Okullarda yeni dönem başlarken AI Safety Türkiye olarak bu yılki planlarımızı konuşmak ve topluluk üyelerimizin birbiriyle tanışması için yüz yüze buluşuyoruz!

28 Eylül Cumartesi ve 5 Ekim Cumartesi’yi ajandalarınıza kaydedin, detayları Eylül sayımızda paylaşacağız.

🗓️ İstanbul buluşmasına kayıt olun.

🗓️ Ankara buluşmasına kayıt olun.

**Gönüllüler Arıyoruz! **🩵

AI Safety Türkiye’ye çeşitli konularda yardımcı olacak gönüllüler arıyoruz. Web geliştirme, içerik üretimi, araştırma veya etkinlik organizasyonu gibi alanlarda tecrübeniz olsun ya da olmasın, yapay zeka güvenliği ve etiğine ilgi duymanız bizim için yeterli. Her türlü katkınız bizim için değerli!

Aşağıdaki formu doldurursanız, misyonumuza nasıl katkıda bulunabileceğinizi ve gönüllü aradığımız görevleri sizinle paylaşmak için sizinle iletişime geçeceğiz. Şimdiden teşekkürler!

Gönüllümüz olun!

Bluedot Impact’s Yapay Zeka Güvenliği’nin Temelleri Kursu

Yapay Zeka Güvenliği uzmanları tarafından tasarlanmış, 12 haftalık çevrimiçi teknik Yapay Zeka uyum kursu.

🗓️ Son kayıt tarihi: 6 Ekim

Başvurmak için tıklayın!

ÖNERDİĞİMİZ İÇERİKLER** 📑 🎧**

Açık vs. Kapalının Ötesinde: Temel Yapay Zeka Model Yönetimi İçin Ortaya Çıkan Konsensüs ve Anahtar Sorular

Açık kaynaklı Yapay Zeka modelleri üzerine yapılan tartışmalar genellikle yenilik ve demokratizasyon gibi potansiyel faydaları, kontrolsüz riskler ve kötüye kullanım endişeleriyle karşılaştırılıyor. Carnegie raporu, bu ikiliğin ötesine geçerek, uzmanlar tarafından belirlenen fikir birliği alanlarını ve güçlü Yapay Zeka sistemleri için daha ayrıntılı yönetişim tartışmalarını yönlendirecek kritik soruları sunuyor.

AB Yapay Zeka Yasası yürürlüğe girdi. Şimdi ne olacak?

Yapay Zeka politikaları araştırmacısı Risto Uuk, AB Yapay Zeka Yasası’nın öne çıkan noktalarını ve bu yeni düzenlemelerin en ileri Yapay Zeka modellerini geliştiren şirketler ve diğer işletmeler için ne anlama geldiğini açıklıyor.

GPT-4o, Kullanıcısının Sesini İzni Olmadan Klonladı

OpenAI; son risk değerlendirmesinde GPT4o modelinin, kullanıcının sesini izinsiz olarak taklit ettiğini tespit etti. Risk değerlendirmesi ayrıca GPT-4o’nun “ikna risklerini” orta seviye olarak sınıflandırıyor. OpenAI, orta seviyenin üstünde ikna risklerine sahip bir modelin kullanıma sunulmasını güvenli olarak kabul etmiyor.

İŞ İLANLARI 👩🏻‍💻

Yapay Zeka Güvenliği alanındaki yeni fırsatları keşfetmek için

80.000 Hours’un iş ilanları sayfasına göz atabilirsiniz!

İlanları inceleyin!