Çin’in yeni önerilen yasası AI nın gelişimini boğabilir

Çin’in internet gözlemcisi, Çin Siber Uzay İdaresi (CAC), kısa süre önce teknoloji şirketlerinin tüketicilere hizmet sunarken algoritmaları nasıl kullandığını yönetmek için bir taslak düzenleme teklifi yayınladı.

Önerilen yasa, şirketlerin “aktif olarak pozitif enerji yaymak” için algoritmalar kullanmasını zorunlu kılıyor. Teklife göre, şirketler, algoritmalarını onay için hükümete sunmalıdır veya para cezasına çarptırılma ve hizmetlerinin sonlandırılma riskiyle karşı karşıyadır.

Bu inanılmaz derecede kötü ve hatta tehlikeli bir fikir. AI’yı anlamayan insanlar AI’yı düzenlemeye çalıştığında olan budur. Hükümetler, inovasyonu teşvik etmek yerine, yapay zekaya benzersiz korku merceklerinden bakıyor ve en çok endişe ettikleri zararı azaltmaya çalışıyor. Bu nedenle, batılı düzenleyiciler, mahremiyetin ihlali gibi korkulara odaklanırken, Çinli düzenleyiciler, vatandaşları hakkında özel veri toplama konusunda tamamen iyiler, ancak AI’nın hükümet tarafından istenmeyen şekillerde insanları etkileme yeteneğinden endişe duyuyorlar.

Çin yasası kabul edilirse, büyük olasılıkla hiçbir küçük şirketin veya girişimin hayatta kalmamasını ve hatta pazara girmemesini sağlayacak uzun bir bürokratik süreç yaratacaktır. Hükümet düzenleyicilerinin, gelişmekte olan teknolojilerin yapabilecekleri ve yapamayacakları konusunda nihai söz sahibi olmalarına izin verdiğiniz anda, inovasyonu boğmuş olursunuz. Böyle bir yasa altında kâr edecek olan kişiler, büyük nakit rezervleri ve kötü aktörler nedeniyle verimsiz bürokratik faaliyetlere yatırım yapabilen büyük şirketlerdir, çünkü düzenleyicileri görmezden gelirler ve ne isterlerse yaparlar. Yasayı takip etmek isteyen nakit açlığı çeken girişimler bu yaklaşımla en dezavantajlı olacak.

Çin, yapay zekaya bürokratik yaklaşımlar benimsemede yalnız değil. Nisan ayında Avrupa Birliği, belirli AI uygulamalarını tamamen yasaklayacak ve “yüksek riskli” kabul edilen AI uygulamalarının katı veri yönetişimi ve risk yönetimi gereksinimlerini karşılamasını zorunlu kılacak bir Yapay Zeka Yasası taslağı yayınladı. Bu, algoritmaları test etme, eğitme ve doğrulama, insan gözetimini sağlama ve doğruluk, sağlamlık ve siber güvenlik standartlarını karşılama gerekliliklerini içerir. İşletmelerin, yapay zeka sistemlerinin Avrupa pazarına arz etmeden önce bu gereksinimlere uygun olduğunu kanıtlamaları gerekecektir.

Algoritma gereksinimleri dayatmak veya şirketlerin yaklaşımları gerekçelendirmesini istemek, teknolojilerin doğrudan yasaklanmasından daha az külfetli görünebilir. Gerçek şu ki, her iki durumda da yeni başlayanlar, bu tür bürokratik yavaş süreçlere katılmak için kaynaklara sahip değiller. Daha küçük şirketler, bu alanda gerçek yenilikler yaratma olasılıkları yüksek olsa da, arenadan çıkmaya zorlanacak.

Yeni başlayanların yazılımlarını oluşturmadan önce teknolojilerinin patentini almak zorunda olduğu bir dünya hayal edin. ABD patentlerinin yalnızca yarısı onaylandı, bu korkunç değil, ancak onayın gelmesi yaklaşık iki yıl sürüyor. Algoritmaları incelemek, özellikle çok az uzmanın anladığı derin öğrenme algoritmalarını incelemek patentlerden daha zordur. Patent ofisindeki uzun zaman çizelgelerine dayanarak, algoritma onay süreçlerinin muhtemelen iki yıldan uzun süreceğini tahmin edebiliriz. Bu yeterince hızlı değil: AI gibi hızla gelişen bir alandaki teknoloji, onaylandığı zaman zaten eskimiş olacaktı. Düzenleyicilerin algoritmaları önceden onaylamasını içeren herhangi bir yaklaşım, bu alandaki yeniliği boğacaktır.

Bu tür mevzuatın küçük şirketler için daha külfetli olmasının başka bir nedeni daha var. Risk sermayesi yatırımlarına bağımlı girişimler için, tipik finansman döngüleri 18 aydır, bu da yatırımcıların 18 aydan daha kısa sürede yatırımdan somut sonuçlar almayı beklediği anlamına gelir. Bu nedenle, mevcut yatırım yaklaşımları, bir ürünü piyasaya sürmeden önce algoritmaların onaylanması için yıllarca beklemeyi desteklemeyecektir. Bazı VC’ler, örneğin tıbbi yatırımlara benzer şekilde farklı bir yatırım yaklaşımı benimseyebilirken, birçok girişimci basitçe yapay zekadan uzaklaşır ve başka fırsatların peşine düşer.

ABD, AI yönergelerini doğru almak için benzersiz bir konumda. Çin ve Avrupa Birliği, belirli AI türlerini yasaklayan her zamankinden daha katı yönergeler belirlerken, ABD, yeniliği engellemeden etik yönergeler oluşturma fırsatına sahiptir. Yapay zekayı düzenlemeye yönelik tek uygun yaklaşım, toplumsal hedeflerimizi en baştan netleştirdiğimiz ve bu hedefleri ihlal etmeleri durumunda şirketleri sorumlu tuttuğumuz yaklaşımdır. Örneğin, her şirketi faaliyete geçmeden önce İş Güvenliği ve Sağlığı İdaresi (OSHA) denetimlerinden geçmeye zorlamıyoruz. Ancak, iş güvenliği beklentileri kanunda yer almakta ve ihlal edenler hakkında kovuşturma açılmaktadır. Şirketler, çalışanlarını güvende tutmak için alternatif yaklaşımlar bulursa, toplumsal hedeflere ulaşıldığı sürece cezalandırılmazlar.

Devlet düzenleyicilerine geniş teknoloji kategorilerini sınırlama gücü vermek, interneti veya akıllı telefonu inşa eden yaklaşım değil. Bu nedenle ABD, toplumsal hedeflerimizi net hale getirerek ve kuruluşlara bu tür hedeflere ulaşmada esneklik vererek AI düzenlemesini ele almalıdır.

Facebook
Twitter
LinkedIn
WhatsApp
Pinterest
Tumblr

Benzer Haberler

Son Haberler