Sağlık, finans ve eğitimde yapay zekâ: Neden aynı terimler farklı anlama gelebilir?

Yapay zekâ (AI) aynı teknik temellere dayansa da, sağlık, finans ve eğitim gibi sektörlerde risk profili, veri türleri ve denetim beklentileri farklıdır. Bu nedenle “model doğrulama”, “izleme” veya “değişiklik yönetimi” gibi kavramlar; bir hastane, bir banka ya da bir üniversite için pratikte farklı sorular doğurur.

Bu yazı, ABD odağında üç sektörde öne çıkan AI kullanım alanlarını, temel terimleri ve vaka yaklaşımı şablonlarını sunar. Sağlık tarafında FDA’nin AI/ML içeren SaMD için yayımladığı taslak rehberi; eğitim tarafında ise yükseköğretimde AI tedariki ve veri riskleriyle ilgili EDUCAUSE değerlendirmesini referans alır (FDA, EDUCAUSE).


Hızlı sözlük: Sektörler arası en kritik AI terimleri (AI/ML, LLM, RAG, MLOps)

  • Makine öğrenmesi (ML): Veriden örüntü öğrenen modeller ailesi. Sektör farkı: Sağlıkta klinik bağlam ve kullanım amacı; finansta risk/izlenebilirlik; eğitimde mahremiyet ve öğrenci verisi yönetimi öne çıkar.
  • Derin öğrenme (DL): Çok katmanlı sinir ağları. Görüntü/ses gibi karmaşık verilerde yaygındır (sağlık görüntüleme, çağrı merkezi ses analizi gibi).
  • Büyük dil modeli (LLM): Metin üretimi/özetleme/soru-cevap gibi görevlerde kullanılan büyük ölçekli modeller. Kurumsal kullanımda veri sızıntısı, yetkilendirme ve kaynaklandırma kritik olabilir.
  • RAG (Retrieval-Augmented Generation): Yanıt üretmeden önce onaylı belgelerden “getir”, sonra “üret” yaklaşımı. Eğitimde politika/handbook; finansta prosedür; sağlıkta kılavuz dokümanlarıyla çalışırken sık tercih edilir.
  • İnce ayar (fine-tuning): Modeli özel veriyle yeniden eğiterek belirli görevlerde performansı artırma. Regüle alanlarda veri kökeni ve izinler ayrı bir çalışma kalemidir.
  • Çıkarım (inference): Eğitilmiş modelin üretimde tahmin/yanıt üretmesi. Maliyet ve gecikme (latency) burada belirleyicidir.
  • Model sürüklenmesi (drift): Veri dağılımı veya hedef davranış değiştiğinde performansın zamanla bozulması. Üç sektörde de izleme ve geri bildirim döngüsü gerektirir.
  • Değişiklik yönetimi: Model, veri, istem (prompt) ya da iş akışında yapılan değişikliklerin kontrollü biçimde devreye alınması. Sağlıkta, FDA taslak rehberinde bu başlık yaşam döngüsünün merkezindedir (FDA).
  • Yönetişim (governance): Sorumlulukların, onay mekanizmalarının, denetim izlerinin ve risk kontrollerinin çerçevesi. Ölçeklemede “pilot var, üretim yok” boşluğunu kapatmada belirleyicidir (McKinsey).
  • MLOps: Model geliştirme-izleme-devreye alma süreçlerinin operasyonel disiplini. Üretimde ölçüm ve geri bildirim döngüsü kurar.
  • AI ajanı (agent): Bir hedefe ulaşmak için plan yapan, araç çağıran ve çok adımlı iş yapan sistem yaklaşımı. Kurumsal ajanlarda yetkilendirme ve kayıt (logging) özellikle önemlidir (McKinsey).

ABD’de genel tablo: Benimseme artıyor, ölçekleme ve güven problemi sürüyor

McKinsey’nin 2025 “State of AI” raporu, kuruluşların AI’yi daha yaygın biçimde iş fonksiyonlarına taşıdığını; buna karşın kurumsal ölçekte sürdürülebilir etki yaratmanın çoğu yerde yönetişim, veri temeli ve risk/uyum süreçleri nedeniyle zorlaştığını vurgular. Raporda ayrıca, araç çağıran ve çok adımlı işleri yürüten “ajan” yaklaşımının öne çıkan uygulama yönlerinden biri olduğu anlatılır (McKinsey).

Stanford HAI’nin 2025 AI Index raporu ise AI’nin yalnızca teknik değil, aynı zamanda ekonomik ve politika boyutlarıyla hızla büyüyen bir alan olduğunu; yatırım eğilimleri, yayın/patent aktiviteleri ve AI’ye ilişkin düzenleyici/politika girişimlerinin genişlediğini sistematik göstergelerle izler (Stanford HAI).

Pratik çıkarım: Sektörden bağımsız olarak, “model kurduk”tan “sürdürülebilir üretim sistemi”ne geçişte en çok zorlayan noktalar veri yönetimi, güvenlik/mahremiyet, ölçüm ve değişiklik kontrolüdür.


Özet tablo: Sağlıkta AI (SaMD), finansta AI yönetişimi, eğitimde AI satın alma ve veri riski

Boyut Sağlık (SaMD) Finans Eğitim (yükseköğretim)
Tipik kullanım alanları Görüntü analizi, klinik karar destek, iş akışı otomasyonu Sahtekârlık tespiti, risk skorlama, müşteri hizmetleri otomasyonu Öğrenme desteği, içerik/ölçme araçları, idari süreç otomasyonu
Risk odağı Hasta güvenliği, performansın zamanla değişimi, klinik bağlam Operasyonel risk, izlenebilirlik, güvenlik, model davranışı değişimi Öğrenci verisi, tedarikçi şeffaflığı, akademik dürüstlük ve kurum politikaları
Baskın tema Yaşam döngüsü, üretim sonrası izleme, değişiklik planı (FDA) Pilotların üretime taşınmasında yönetişim ve ölçüm kası (McKinsey) Satın alma, sözleşme ve veri paylaşımı riskleri (EDUCAUSE)
Başarı metriği örnekleri Performans/kalite, hata türleri, klinik iş akışına etkisi Yanlış pozitif/negatif oranı, kayıp azaltımı, işlem süreleri Memnuniyet, süreç süreleri, erişilebilirlik, politika uyumu

1) Sağlıkta AI (SaMD): FDA taslak rehberi, yaşam döngüsü ve PCCP

Önemli not: Bu bölüm genel bilgilendirme amaçlıdır; tıbbi veya hukuki tavsiye değildir. Ayrıca FDA dokümanı taslak rehber olduğundan yorum ve uygulama ayrıntıları zamanla değişebilir. Güncel durum için her zaman resmi metne ve uzman danışmanınıza başvurun.

ABD’de klinik bağlamda kullanılan birçok yazılım, kullanım amacına ve işlevine göre “Software as a Medical Device (SaMD)” kapsamına girebilir. FDA’nin 6 Ocak 2025 tarihli taslak rehberi “Artificial Intelligence-Enabled Device Software Functions: Lifecycle Management and Marketing Submission Recommendations”, AI/ML içeren cihaz yazılım işlevleri için yaşam döngüsü yönetimi ve pazarlama başvurusu (marketing submission) önerilerini ele alır (FDA).

Sağlıkta temel terimler (FDA diliyle pratik karşılıkları)

  • Kullanım amacı (intended use): Modelin hangi klinik senaryoda, kim tarafından, hangi sınırlarda kullanılacağı. Değerlendirme planının omurgasıdır.
  • Üretim sonrası izleme (post-market monitoring): Model performansının gerçek kullanımda takip edilmesi. Drift, alt grup performansı ve hata türleri gibi başlıklar pratikte burada izlenir.
  • Predetermined Change Control Plan (PCCP): Ürünün AI/ML bileşeninde beklenen değişikliklerin (güncellemelerin) nasıl kontrol edileceğine dair önceden belirlenmiş plan yaklaşımı; taslak rehber bu başlığı yaşam döngüsü yönetiminin kritik parçası olarak konumlandırır (FDA).

Örnek vaka şablonu: Görüntüleme iş akışında önceliklendirme

Somut ürün adı vermeden, ABD’de sık görülen bir senaryoyu şablon olarak düşünelim: Görüntüleme (ör. radyoloji) kuyruğunda önceliklendirme amacıyla bir AI modeli kullanmak.

  1. Problem tanımı: Raporlama gecikmesini azaltmak veya kritik olguları daha erken işlemek.
  2. Çıktı türü: “Şüpheli bulgu” işareti ve iş listesinde öncelik önerisi (otomatik tanı değil).
  3. Kabul kriterleri: Yanlış alarm oranı, kaçırma riski, iş akışı kazancı. Klinik ekiple birlikte belirlenir.
  4. Doğrulama yaklaşımı: Veri temsiliyeti, farklı cihaz/protokoller, alt grup performansı gibi başlıklar test planına eklenir.
  5. Üretim sonrası izleme planı: Performansın zamanla değişimini izleme, kullanıcı geri bildirimi kanalı, hata sınıflandırması.
  6. PCCP / değişiklik yönetimi: Model güncellemesi, eşik ayarı, veri boru hattı değişikliği gibi durumlarda kim onaylar, ne test edilir, ne zaman geri alınır.

Sağlık ekipleri için kısa kontrol listesi

  • Veri ve amaç: Modelin kullanacağı veri türleri ve kullanım amacının net yazılı tanımı var mı?
  • İzleme: Üretimde hangi metriklerle ve hangi sıklıkla performans izlenecek?
  • Değişiklikler (PCCP): Model/iş akışı değişiklikleri için kontrol ve dokümantasyon süreci tanımlı mı?
  • İnsan faktörü: Kullanıcı eğitimleri ve arayüz tasarımı, yanlış kullanım risklerini azaltıyor mu?

2) Finansta AI yönetişimi: Dolandırıcılıktan müşteri hizmetlerine

Finans kurumlarında AI kullanım alanları genellikle risk tespiti ve operasyonel verimlilik etrafında şekillenir: sahtekârlık sinyali üretme, işlem anormalliklerini izleme, belge sınıflandırma, çağrı merkezi özetleme, kişiselleştirilmiş destek gibi.

Bu yazının araştırma paketinde finans için resmi ABD düzenleyici metinleri yer almadığından, burada “zorunlu” gereklilikler gibi kesin hükümler vermek yerine, McKinsey’nin ölçekleme boşluğu vurgusuyla uyumlu biçimde pilot → üretim geçişinde gerekli yönetişim yapı taşlarına odaklanıyoruz (McKinsey).

Finansta pratik risk başlıkları

  • İzlenebilirlik: Model sürümü, veri seti, eşik ve karar günlüklerinin denetlenebilir biçimde tutulması.
  • Adillik (fairness): Belirli müşteri gruplarında farklı hata oranları oluşup oluşmadığını düzenli ölçmek.
  • Güvenlik: Hassas finansal verilerle çalışan sistemlerde erişim yönetimi ve tedarikçi güvenliği.
  • Drift ve veri kalitesi: Ekonomi, ürün karması veya sahtekârlık kalıpları değiştikçe modelin davranışı da değişebilir.

Örnek vaka şablonu: Sahtekârlık tespitinde insan-onaylı otomasyon

  1. Hedef: İnceleme ekibinin yükünü azaltmak, gerçek vakaları daha hızlı yakalamak.
  2. Model rolü: “Öncelik skoru” üretmek ve yardımcı sinyalleri görünür kılmak.
  3. İnsan döngüsü: Model tek başına nihai karar vermez; belirli eşik üzeri işlemler incelemeye düşer.
  4. Ölçüm: Yakalanan vaka oranı, yanlış alarm maliyeti, inceleme süresi, geri kazanım gibi metrikler.
  5. Değişiklik yönetimi: Yeni sahtekârlık taktiklerine karşı eşik/özellik değişimlerinde kontrollü sürümleme.

Finans ekipleri için “pilot → üretim” geçiş kontrol listesi

  • Veri envanteri: Hangi veri nereden geliyor, kim erişiyor, ne kadar süre saklanıyor?
  • Model kartı: Amaç, eğitim verisi özeti, sınırlamalar, bilinen riskler, izleme metrikleri.
  • Denetim izi: Sürüm, prompt (varsa), özellik seti ve karar günlükleri saklanıyor mu?
  • Geri dönüş planı: Sistem sorun çıkarırsa hangi manuel sürece dönülecek?

3) Eğitimde AI satın alma ve veri riski: Kurumsal kullanımın görünmeyen yarısı

ABD yükseköğretiminde AI araçları sıklıkla destekleyici işlevlerle başlar: metin özetleme, taslak içerik üretimi, erişilebilirlik (ör. transkript), öğrenci destek hatları, idari yazışma taslakları. Kurumlar, “hızlı kullanım” ile “kurumsal sorumluluk” arasındaki dengeyi kurmak için satın alma ve tedarik yönetimine daha fazla önem vermektedir.

EDUCAUSE, ortaya çıkan AI araçlarının faydaları yanında tedarikçi şeffaflığı, veri paylaşımı ve sözleşme koşulları gibi risklere dikkat çekerek satın alma süreçlerinde sorulabilecek pratik sorular önerir (EDUCAUSE).

Eğitimde sık görülen kullanım alanları (ölçüm uyarısıyla)

  • Akademik destek: Yazma koçu, çalışma planı, soru-cevap asistanı (kurum politikalarına bağlı).
  • İçerik üretimi: Ders materyali taslağı, rubrik/quiz taslağı (nihai kontrol öğretim üyesinde).
  • İdari verimlilik: Öğrenci hizmetleri yanıt taslakları, duyuru metinleri, toplantı notları.

Kanıt sınırlılığı notu: Öğrenme çıktılarında uzun vadeli, bağımsız ve genellenebilir etki kanıtı her kurum/araç için mevcut olmayabilir. Bu nedenle eğitimde “başarı” ölçümü, yalnızca kullanım sayılarıyla değil, pedagojik hedeflerle uyumlu yerel metriklerle tasarlanmalıdır.

Örnek vaka şablonu: Kurumsal bilgi tabanına dayalı öğrenci destek asistanı (RAG)

  1. Kapsam: Burs başvurusu, kayıt takvimi, kampüs hizmetleri gibi kamuya açık/kurum içi politikalar.
  2. Mimari: RAG yaklaşımıyla yalnızca onaylı belgelerden alıntı/özet üretme; mümkünse yanıta kaynak bağlantısı ekleme.
  3. Güvenlik: Yetki bazlı erişim (öğrenci vs. personel), kişisel veri minimizasyonu.
  4. İşletim: Hata bildirim mekanizması, içerik güncelleme ritmi ve değişiklik kaydı.

EDUCAUSE odağıyla pratik satın alma soruları

  • Sağlayıcı hangi verileri topluyor, hangi amaçlarla kullanıyor ve veri saklama politikası nedir?
  • Kurum verileri model eğitimi için kullanılıyor mu? Kullanılıyorsa bu opsiyonel mi ve nasıl kapatılır?
  • Güvenlik kontrolleri, olay yönetimi ve alt yüklenici (subprocessor) şeffaflığı nasıl?
  • Maliyet modeli (kullanım başına ücret, koltuk başı lisans vb.) bütçe öngörülebilirliği sağlıyor mu?

Sektörler arası uygulama yol haritası: Pilotu güvenli biçimde üretime taşımak

Adım 1: Kullanım amacını ve sınırları yazın

Bir cümlelik hedef (ör. “önceliklendirme”, “özetleme”, “sınıflandırma”) + kapsam dışı kullanım listesi, yanlış beklentileri azaltır.

Adım 2: Veri envanteri ve izinler

Verinin kaynağı, saklama süresi, kimlerin erişeceği, üçüncü taraflarla paylaşım ve anonimleştirme yaklaşımı netleştirilmeden üretime geçmek çoğu kurumda risk yaratır. Yükseköğretimde tedarikçi sözleşmesi bu noktada kritik olabilir (EDUCAUSE).

Adım 3: Değerlendirme planı (metrik + senaryo)

  • Kalite metrikleri: Hata türlerine göre ölçüm (yanlış alarm/kaçırma, alaka, doğruluk).
  • Operasyon metrikleri: Süre kısalması, kişi başı iş yükü, maliyet.
  • Güvenlik/uyum metrikleri: Yetkisiz erişim girişimleri, veri sızıntısı sinyalleri, denetim izi tamlığı.

Adım 4: İzleme ve geri bildirim döngüsü kurun

Özellikle sağlık gibi yüksek riskli alanlarda üretim sonrası izleme ve değişiklik kontrolü düzenleyici çerçevede merkezi önemdedir (FDA).

Adım 5: Yönetişim: Kim onaylar, kim durdurur?

McKinsey, yaygın benimsemeye rağmen ölçeklemede yönetişim ve ölçüm boşluklarına dikkat çeker; üretimde “durdurma yetkisi” (kill switch) ve eskalasyon rotası yazılı olmalıdır (McKinsey).

Adım 6: Değişiklik yönetimi: Model, veri, prompt ve iş akışı

Birçok kurum yalnızca model sürümünü takip eder; oysa LLM tabanlı sistemlerde prompt, bilgi tabanı ve araç izinleri değişiklikleri de davranışı etkiler. Sağlıkta bu konu, FDA taslak rehberinde yaşam döngüsü yönetimi bağlamında kapsamlı biçimde ele alınır (FDA).


SSS: Sektörlere göre AI terimleri ve uygulama kararları

Sağlıkta “SaMD” ile sıradan bir yazılım arasındaki fark nedir?

SaMD, kullanım amacı ve işlevine bağlı olarak tıbbi cihaz kapsamında değerlendirilebilen yazılımları ifade eder. AI/ML bileşeni içeren SaMD’lerde yaşam döngüsü, izleme ve değişiklik planı (PCCP gibi) beklentileri özellikle önem kazanabilir (FDA).

PCCP neyi çözer?

PCCP, ürünün AI/ML bileşeninde beklenen güncellemelerin nasıl yönetileceğine ilişkin önceden tanımlı bir çerçeve sunmayı amaçlar. Bu sayede değişikliklerin kapsamı, test/kanıt yaklaşımı ve kontrol adımları daha öngörülebilir hale gelir (FDA).

Eğitimde AI satın alırken en kritik risk alanı hangisi?

EDUCAUSE perspektifinde en kritik alanlardan biri, tedarikçinin veri toplama/kullanım pratikleri ve sözleşmesel şeffaflıktır: hangi veriler toplanıyor, model eğitimi için kullanılıyor mu, saklama ve alt yüklenici politikaları ne diyor (EDUCAUSE).

RAG mi fine-tuning mi daha “güvenli”?

Tek bir doğru yoktur. RAG, onaylı dokümanlara dayalı yanıt üretmeyi ve kaynak göstermeyi kolaylaştırabilir; fine-tuning ise belirli görevlerde davranışı kalıcı biçimde şekillendirir. Regüle veya hassas verili ortamlarda seçim; veri izinleri, izleme, değişiklik yönetimi ve denetim izi tasarımıyla birlikte yapılmalıdır.


Sonuç: Üç sektörde ortak başarı anahtarı “sistem kurmak”

Sağlıkta yaşam döngüsü ve üretim sonrası izleme; finansta izlenebilirlik, güvenlik ve drift yönetimi; eğitimde tedarikçi yönetimi ve veri politikası… Detaylar değişse de ortak tema aynı: AI’yi kalıcı değer üreten bir bileşen haline getiren şey, tek bir model değil; ölçüm + izleme + değişiklik yönetimi + yönetişim sistemidir.

Stanford HAI’nin AI Index çalışmasının gösterdiği gibi AI, yatırım ve politika düzlemlerinde de hızla büyüyen bir alan; bu nedenle kurumların en sağlam stratejisi, düşük riskli kullanım alanlarından başlayıp kanıt ve kontrolleri biriktirerek daha kritik alanlara ilerlemektir (Stanford HAI).