Önde gelen AI oyuncularından dördü, “Frontier AI” modellerinin “güvenli ve sorumlu gelişimini” sağlamak için tasarlanmış yeni bir endüstri kuruluşu oluşturmak için bir araya geliyor.
Düzenleyici gözetim için artan çağrılara yanıt olarak, ChatGPT geliştiricisi OpenAI, Microsoft, Google ve Anthropic, teknik değerlendirmeler ve kıyaslamalar geliştirmek ve en iyi uygulamaları ve standartları teşvik etmek için üye şirketlerin uzmanlığından yararlanan bir koalisyon olan Frontier Model Forum’u duyurdu.
Forumun misyonunun özünde, OpenAI’nin daha önce Frontier AI” olarak adlandırdığı, “kamu güvenliği için ciddi riskler” oluşturacak kadar tehlikeli kabul edilen gelişmiş yapay zeka ve makine öğrenimi modelleri olan bir şey var. Bu tür modellerin, “tehlikeli yeteneklerİ beklenmedik bir şekilde ortaya çıkabileceğinden”, modellerin kötüye kullanılmasını önlemeyi zorlaştırdığından, benzersiz bir düzenleyici zorluk oluşturduklarını iddia ediyorlar.
Yeni forum için belirtilen hedefler şunları içeriyor:
i) Sınır modellerinin sorumlu bir şekilde geliştirilmesini teşvik etmek, riskleri en aza indirmek ve yetenekler ve güvenliğin bağımsız, standartlaştırılmış değerlendirmelerini sağlamak için AI güvenlik araştırmasını ilerletmek.
ii) Halkın teknolojinin doğasını, yeteneklerini, sınırlamalarını ve etkisini anlamasına yardımcı olarak sınır modellerinin sorumlu bir şekilde geliştirilmesi ve konuşlandırılması için en iyi uygulamaları belirlemek.
iii) Güven ve güvenlik riskleri hakkında bilgi paylaşmak için politika yapıcılar, akademisyenler, sivil toplum ve şirketlerle işbirliği yapmak.
iiii) İklim değişikliğinin hafifletilmesi ve uyum sağlanması, kanserin erken teşhisi ve önlenmesi ve siber tehditlerle mücadele gibi toplumun en büyük sorunlarının üstesinden gelinmesine yardımcı olabilecek uygulamaların geliştirilmesine yönelik çabaların desteklenmesi.
Frontier Model Forum’un şu anda sadece dört üyesi olmasına rağmen, kolektif yeni üyelere açık olduğunu söylüyor. Nitelikli kuruluşlar sınır yapay zeka modelleri geliştirip dağıtmalı ve “sınır modeli güvenliğine güçlü bir bağlılık” göstermeliler.
Kısa vadede, kurucu üyeler, ilk adımların, bir tüzük, yönetişim ve finansman yapısının yanı sıra stratejisini yönlendirmek için bir danışma kurulu oluşturmak olacağını söylüyor.
Şirketler bugün yaptıkları ortak açıklamada, “Forum’un tasarımı ve anlamlı işbirliği yolları konusunda önümüzdeki haftalarda sivil toplum ve hükümetlerle istişare etmeyi planlıyoruz” dedi.
Frontier Modeli Forumu, AI endüstrisinin güvenlik endişelerini ciddiye aldığını göstermek için tasarlanırken, aynı zamanda Big Tech’in gönüllü inisiyatifler yoluyla gelen düzenlemeleri engelleme ve belki de kendi kurallarını yazmaya doğru bir yol kat etme arzularını da vurguluyor.
Gerçekten de bugünün haberleri, Avrupa’nın güvenlik, mahremiyet, şeffaflık ve ayrımcılıkla mücadeleyi şirketlerin yapay zeka geliştirme değerlerinin merkezine yerleştirmek için tasarlanan ilk somut yapay zeka kural kitabı olacak şekilde ilerlemeye devam ettiği sırada geliyor.