Yapay zekâda etik ve güvenlik neden birlikte ele alınmalı?
“Etik” çoğu zaman adillik, ayrımcılık riski, şeffaflık ve hesap verebilirlik gibi konuları; “güvenlik” ise siber güvenlik, veri koruma, kötüye kullanım ve sistem dayanıklılığını çağrıştırır. Gerçekte bu iki alan birbirine bağlıdır: Örneğin bir modelin yetkisiz şekilde yönlendirilmesi (kötüye kullanım) hem güvenlik açığı hem de etik zararlara (yanıltıcı çıktıların yayılması, hassas bilgilerin sızması, hatalı otomasyon kararları) yol açabilir.
Stanford’un AI Index raporu, YZ benimsemesinin hızlandığı bir dönemde yönetişim ve güven tartışmalarının da daha görünür hale geldiğini vurgular. Bu, “hızlı devreye al – sonra düzelt” yaklaşımının maliyetini artırabilir. Bu rehber, teknik ayrıntıda boğmadan uygulamaya dönük bir çerçeve sunar. (Kaynak: https://hai.stanford.edu/ai-index/2025-ai-index-report)
Riskleri anlaşılır şekilde sınıflandırın: Ne yanlış gidebilir?
İlk adım, riskleri “tek bir başlık” altında toplamayı bırakıp, izlenebilir kategorilere ayırmaktır. Aşağıdaki sınıflandırma; ürün, eğitim teknolojisi, sözlük/referans siteleri ve genel kurumsal kullanım için pratik bir başlangıçtır.
- Adillik ve önyargı (bias): Belirli gruplar için sistematik olarak kötü sonuçlar üretme.
- Güvenilirlik: Tutarsız yanıtlar, hatalı genellemeler, kaynak gösterememe, sınır vakalarda çökme.
- Şeffaflık ve açıklanabilirlik: Kullanıcının “bu çıktı nasıl oluştu?” sorusuna makul cevap verememe.
- Gizlilik ve veri koruma: Kişisel/kurumsal verilerin uygunsuz kullanımı veya ifşası.
- Güvenlik (misuse & saldırılar): Modelin yönlendirilmesi, veri sızıntısı, tedarik zinciri riskleri, kötüye kullanım senaryoları.
- Uyumluluk ve yönetişim: Düzenlemelere hazırlıksızlık, iz bırakmayan karar süreçleri, denetim kanıtı üretememe.
Bu risklerin bir kısmı ölçülebilir metriklerle (ör. hata oranları, kapsama testleri) takip edilirken, bir kısmı süreç/kanıt yönetimi gerektirir (ör. onay akışları, kayıt ve izleme). Bu nedenle “teknik test” ve “kurumsal yönetişim” birlikte tasarlanmalıdır.
NIST AI RMF: Risk yönetimini sistematik hale getiren pratik çerçeve
ABD pazarında en çok referans verilen yaklaşımlardan biri, NIST’in gönüllü nitelikteki Artificial Intelligence Risk Management Framework’üdür (AI RMF). AI RMF, kuruluşların YZ risklerini tanımlaması, ölçmesi, yönetmesi ve yönetişim altına alması için ortak bir dil sunar. (Kaynak: https://www.nist.gov/document/about-nist-ai-rmf)
AI RMF’nin pratikte faydası şudur: Her ekip (ürün, hukuk, güvenlik, veri, eğitim içerik ekipleri) kendi işini yaparken, aynı risk taksonomisi ve aynı kanıt mantığıyla konuşur.
AI RMF’nin 4 fonksiyonunu günlük işe çevirin
- GOVERN (Yönetişim): Sorumluluklar, politikalar, onay mekanizmaları, “kim neyi onaylar?” sorusu.
- MAP (Haritalama): Kullanım senaryosu, paydaşlar, zarar görebilecek gruplar, bağlam ve sınırlar.
- MEASURE (Ölçme): Performans, dayanıklılık, güvenlik testleri, adillik değerlendirmeleri, izleme metrikleri.
- MANAGE (Yönetme): Kontrollerin uygulanması, risk iştahı kararları, iyileştirme döngüsü ve olay yönetimi.
NIST’in AI Resource Center (AIRC) sayfası, AI RMF’yi uygulamaya dökmek için ek materyallere (uygulama rehberleri, değerlendirme yaklaşımları ve TEVV odaklı içeriklere yönlendirmeler) kapı açar. (Kaynak: https://airc.nist.gov/)
Hızlı başlangıç: “Tek sayfalık risk profili” şablonu
Aşağıdaki sorular, MAP + GOVERN aşamasında 1–2 toplantıda çıkarılabilecek minimum risk profilidir:
- Bu YZ sistemi hangi kararı etkiliyor? Kullanıcıya etkisi ne?
- Hangi veri türleri kullanılıyor? Hassas veri var mı?
- Çıktı nerede kullanılacak: bilgi amaçlı mı, otomatik işlem tetikliyor mu?
- Hata olursa en kötü senaryo ne?
- Kim “son söz” sahibi: ürün sahibi mi, güvenlik mi, uyumluluk mu?
- Kullanıcıya hangi uyarıları ve sınırlamaları göstereceğiz?
Uyumluluk perspektifi: AB AI Act ve ABD’de parçalı düzenleyici ortam
Önemli not: Bu bölüm genel bilgilendirme amaçlıdır ve hukuki danışmanlık değildir. Somut yükümlülükler; kullanım senaryonuza, bulunduğunuz ülkelere, sektörünüze ve müşterilerinize göre değişir.
AB AI Act: risk-temelli yaklaşım ve aşamalı takvim
Avrupa Komisyonu’nun resmi politika sayfası, AB AI Act’in risk-temelli bir düzenleme olduğunu ve bazı yükümlülüklerin aşamalı olarak uygulanacağını açıklar. Bu çerçeve; yasaklanan uygulamalar, yüksek risk sistemleri ve genel amaçlı YZ (GPAI) gibi kategoriler üzerinden ilerler. Güncel ve bağlayıcı yorum için resmi metin/takvim esas alınmalıdır. (Kaynak: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai)
ABD’de olsanız bile AB ile iş yapıyorsanız, AB’de hizmet veriyorsanız veya AB’deki kullanıcıları hedefliyorsanız; ürün tasarımında bu yaklaşımın etkilerini değerlendirmek genellikle yararlı olur. En azından risk sınıflandırması ve kanıt üretimi mantığı, küresel ekiplerde ortak bir standartlaştırma sağlayabilir.
ABD: eyalet bazlı yaklaşımlar ve uyumluluk karmaşıklığı
ABD’de YZ’ye ilişkin yaklaşımlar tek bir federal çatı altında toplanmaktan ziyade eyalet ve sektörel düzeyde çeşitlenebiliyor. Brookings’in değerlendirmesi, eyaletlerin farklı yönlerde ilerlemesinin kurumlar için parçalı bir uyumluluk yükü doğurabileceğine işaret eder. (Kaynak: https://www.brookings.edu/articles/how-different-states-are-approaching-ai/)
Pratik öneri: Ürününüz/servisiniz birden fazla eyalette kullanılıyorsa, “uyumluluk matrisi” hazırlayın. Bu matris; kullanım senaryosu, veri türü, hedef kullanıcı grubu ve pazarlama iddiaları gibi başlıklar etrafında gereksinimleri izlemeyi kolaylaştırır.
TEVV: Denetlenebilir güven için test ve kanıt üretimi
Birçok kuruluş YZ risklerini “politikada” doğru yazar, ancak denetimde sorulan kritik soruya hazırlıksız yakalanır: “Bunu nasıl test ettiniz ve hangi kanıtla biliyorsunuz?”
NIST AIRC, AI RMF’yi uygulamada destekleyen kaynaklara yönlendirirken TEVV (testing, evaluation, verification, validation) yaklaşımını da gündeme taşır. TEVV, tek bir test koşusu değil; ürün yaşam döngüsü boyunca tekrarlanan kanıt üretim disiplinidir. (Kaynak: https://airc.nist.gov/)
Öte yandan, bazı teknik değerlendirmeler mevcut standart/çerçevelerin pratik güvenlik vektörlerini eksik ele alabileceğini, bu nedenle kurumların operasyonel kontrolleri güçlendirmesi gerektiğini tartışır. Bu tür çalışmalar ön baskı niteliğinde olabilir; bu yüzden sonuçlar kurum içi risk değerlendirmesiyle birlikte ele alınmalıdır. (Kaynak: https://arxiv.org/abs/2502.08610)
TEVV için minimum kanıt seti (çoğu ekip için uygulanabilir)
- Kapsam tanımı: Modelin ne için kullanılacağı ve neyi yapmayacağı.
- Veri dokümantasyonu: Veri kaynakları, izin/temel varsayımlar, veri temizleme ve etiketleme notları.
- Model/ürün dokümantasyonu: Sürümleme, değişiklik günlüğü, bilinen sınırlamalar.
- Test sonuçları: Temel performans, sınır vakalar, güvenlik testleri ve izleme metrikleri.
- İnsan denetimi tasarımı: Hangi aşamada insan onayı şart, hangi durumda otomasyon duracak?
- Olay yönetimi: Kullanıcı bildirimi kanalları, inceleme süreci, düzeltme döngüsü.
Örnek kanıt tablosu: Riskten kontrole
| Risk alanı | Örnek senaryo | Önerilen kontrol | Kanıt/artefakt |
|---|---|---|---|
| Adillik | Belirli kullanıcı gruplarında daha düşük doğruluk | Grup bazlı değerlendirme + iyileştirme planı | Test raporu + değişiklik kaydı |
| Gizlilik | Hassas verinin istemeden çıktıya yansıması | Veri minimizasyonu + erişim kısıtları | Erişim logları + veri envanteri |
| Güvenlik | Kötü niyetli yönlendirme ile istenmeyen çıktılar | Tehdit modelleme + red-team senaryoları | Senaryo sonuçları + düzeltme kayıtları |
| Güvenilirlik | Güncellemeden sonra kalite düşüşü | Sürüm bazlı regresyon testleri | CI test çıktıları + karşılaştırma raporu |
Open-weight ve üçüncü taraf modeller: seçiminizi riskle gerekçelendirin
Model seçimi artık sadece performans maliyeti değil; aynı zamanda güvenlik ve yönetişim kararıdır. OECD’nin 2025 tarihli raporu, open-weight yaklaşımının denetim/şeffaflık açısından avantajlar sunabileceğini; buna karşın kötüye kullanım risklerini de artırabileceğini tartışır. (Kaynak: https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/08/ai-openness_958d292b/02f73362-en.pdf)
Pratik karar matrisi (kurumsal ekipler için)
- Daha fazla kontrol istiyorsanız: Kendi ortamınızda çalıştırma, erişim denetimi, ayrıntılı loglama ve test tekrarı avantaj olabilir.
- Daha düşük operasyon yükü istiyorsanız: Yönetilen servisler daha hızlı devreye alınabilir; ancak tedarikçi bağımlılığı ve görünürlük sınırlamaları doğabilir.
- Kötüye kullanım riski yüksekse: Erişim katmanları, oran sınırlama, kullanım politikaları ve izleme planı kararın parçası olmalı.
Buradaki temel ilke: “Hangi modeli seçersek seçelim, riskleri hangi kontrollerle kapatıyoruz?” sorusuna yazılı cevap üretmek. Bu cevap, hem yönetişiminiz hem de ileride yapılacak denetimler için çekirdek dokümandır.
Eğitim ve referans/sözlük uygulamaları için özel etik-güvenlik notları
E-öğrenme ve referans içerik ürünlerinde YZ, kullanıcıya bilgi sunar; bu da “doğruluk beklentisi”ni yükseltir. Ayrıca öğrenciler/öğretmenler gibi hassas gruplar söz konusu olabilir. Bu nedenle:
- İçerik sınırlarını görünür kılın: YZ çıktısının hangi durumlarda doğrulanması gerektiğini kullanıcıya açıkça söyleyin.
- Kaynaklandırma yaklaşımı belirleyin: Kaynak veremediğiniz durumlarda kullanıcıyı daha güvenli bir akışa yönlendirin (ör. resmi dokümana bağlantı, editoryal içerik).
- Yanlış öğrenmeyi azaltın: Yüksek belirsizlikte “emin değilim” mekanizmaları ve alternatif öneriler tasarlayın.
- Gizlilik varsayılanlarını güçlendirin: Öğrenci/kurum verisi işleniyorsa veri minimizasyonu ve erişim kontrollerini erken tasarlayın.
30-60-90 gün uygulama planı (küçük/orta ölçekli ekipler için)
İlk 30 gün: Yönetişim ve kapsam
- YZ envanteri çıkarın: Hangi ürünlerde, hangi sağlayıcılarla, hangi verilerle?
- AI RMF dilinde risk taksonomisi belirleyin ve sahiplik atayın. (Kaynak: https://www.nist.gov/document/about-nist-ai-rmf)
- “Kabul edilmeyen kullanım” listesini yayınlayın (iç politika).
- Minimum dokümantasyon şablonlarını oluşturun (kapsam, veri, sürüm, test).
60 gün: TEVV ve izleme
- Çekirdek test setlerini oluşturun: temel kalite + sınır vakalar + kötüye kullanım senaryoları.
- Üretimde izleme metriklerini seçin: hata türleri, kullanıcı şikayetleri, geri dönüş oranları.
- Olay yönetimi akışı kurun: triage, düzeltme, geri alma, iletişim.
- AIRC’deki kaynakları takip ederek TEVV disiplinini ekiplere eğitim olarak yayınlayın. (Kaynak: https://airc.nist.gov/)
90 gün: Uyumluluk senaryoları ve tedarikçi yönetimi
- AB AI Act risk-temelli yaklaşımına göre ürününüzün olası konumunu yüksek seviyede değerlendirin (özellikle AB kullanıcıları varsa). (Kaynak: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai)
- ABD’de eyalet bazlı farklılaşma ihtimaline karşı uyumluluk matrisini güncelleyin. (Kaynak: https://www.brookings.edu/articles/how-different-states-are-approaching-ai/)
- Tedarikçi sözleşmeleri ve üçüncü taraf risk değerlendirmesi için standart soru seti hazırlayın (güvenlik, veri, denetim kanıtı, değişiklik bildirimi).
Yönetişim kontrol listesi: “Kimin sorumluluğu?” sorusunu kapatın
- Ürün sahibi: kullanım senaryosu, kullanıcı iletişimi, geri bildirim döngüsü
- Güvenlik: tehdit modelleme, erişim yönetimi, loglama, olay müdahalesi
- Veri sorumluları: veri envanteri, izinler, veri kalitesi, saklama politikaları
- Hukuk/uyumluluk: bölgesel gereksinimler, sözleşmesel riskler, kayıt/kanıt
- İçerik/editoryal (eğitim & referans ürünleri): kullanıcıya sunulan bilginin sınırları, düzeltme süreçleri
Bu dağılımın tek bir doğru şekli yoktur; ancak yazılı olmalıdır. NIST AI RMF’nin GOVERN fonksiyonu, bu sorumlulukları kurumsal pratiklere bağlamak için iyi bir başlangıç çerçevesi sunar. (Kaynak: https://www.nist.gov/document/about-nist-ai-rmf)
Sonuç: Güven, hızın düşmanı değil; sürdürülebilirliğin ön koşulu
YZ projelerinde “etik ve güvenlik” çoğu zaman sonradan eklenen kontrol listeleri gibi görülür. Oysa benimsemenin hızlandığı bir dönemde, güven ve kanıt üretimi; ürün sürekliliği, müşteri güveni ve operasyonel maliyet açısından temel bir yatırım haline gelir. (Kaynak: https://hai.stanford.edu/ai-index/2025-ai-index-report)
Bu rehberi bir başlangıç noktası olarak kullanın: NIST AI RMF ile ortak dil kurun, TEVV ile ölçülebilir ve denetlenebilir kanıt üretin, AB/ABD düzenleyici gelişmelerini senaryo bazlı takip edin ve model seçimini (özellikle open-weight tartışmasını) risk gerekçesiyle belgelendirin. (Kaynaklar: https://www.nist.gov/document/about-nist-ai-rmf, https://airc.nist.gov/, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai, https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/08/ai-openness_958d292b/02f73362-en.pdf)