Genel bakış: Sektörlere göre AI neden farklı görünür?

“Yapay zekâ” tek bir ürün değil; veri, model, süreç ve yönetişimden oluşan bir yaklaşım ailesidir. Aynı model türü (ör. büyük dil modeli) sağlıkta hasta güvenliği ve klinik geçerlik nedeniyle farklı; finansta model riski, adalet ve denetim izleri nedeniyle farklı; perakendede ise ölçek, müşteri deneyimi ve tedarik zinciri verimliliği nedeniyle farklı şekilde tasarlanır.

Bu yazı, Yapay Zekâ Uygulamaları ve Sektörler odağında üç sektörde (sağlık, finans, perakende) en sık duyulan terimleri, tipik kullanım senaryosu (use-case) kümelerini ve uygulamaya geçerken işinize yarayacak kontrol noktalarını bir araya getirir. Özellikle yüksek riskli alanlarda, resmi rehberlik ve yönetişim beklentileri düzenli olarak güncellendiği için kurumların kaynakları takip etmesi önemlidir.


Temel AI terimleri: Kısa sözlük (sektörler arası)

AI projelerinde yanlış anlaşılmalar çoğu zaman “terimler” düzeyinde başlar. Aşağıdaki tablo, sektörler arası en temel kavramları pratik yorumla özetler.

Terim Ne demek? Sektörel not
Makine öğrenmesi (ML) Veriden örüntü öğrenen modeller (sınıflandırma, tahmin vb.). Sağlıkta klinik geçerlik; finansta model riski; perakendede ölçek ve A/B test disiplini kritik.
Denetimli / denetimsiz öğrenme Etiketli veriyle (denetimli) ya da etiketsiz veriyle (denetimsiz) öğrenme. Dolandırıcılık tespitinde etiketler; segmentasyonda denetimsiz yöntemler yaygındır.
Generatif AI Metin, görsel, kod gibi içerik üretebilen modeller. Müşteri iletişimi, içerik üretimi ve özetleme gibi işlerde kullanılır; hatalı çıktı riski yönetilmelidir.
Büyük dil modeli (LLM) Metin üzerinden olasılıksal üretim yapan büyük ölçekli model. Bilgi uydurma (hallucination) ve kaynak gösterme zorluğu tüm sektörlerde ortak risktir.
Büyük çokmodlu model (LMM) Metin + görüntü + diğer veri türlerini birlikte işleyebilen model ailesi. WHO rehberi, sağlıkta LMM/generatif AI için etik ve yönetişimi özellikle vurgular.
Çıkarım (inference) Eğitilmiş modelin canlı veride tahmin/üretim yapması. Canlı ortamda gecikme, maliyet ve izlenebilirlik gereksinimleri önem kazanır.
Model drift Veri dağılımı değiştikçe model performansının bozulması. Sağlıkta hasta güvenliği, finansta karar kalitesi/adalet, perakendede gelir kaybı riski yaratabilir.
İnsan denetimi (human-in-the-loop) Model çıktısının insan tarafından kontrol edilmesi/onaylanması. Yüksek etkili kararlar (tanı, kredi, sigorta) için kritik bir tasarım ilkesidir.

Sağlık uygulamalarında ayrıca “SaMD” (Software as a Medical Device) kavramını bilmek gerekir. FDA’nin AI/ML-SaMD sayfasında yer alan politika ve rehberlik özetleri, bu tür ürünleri değerlendirirken yaşam döngüsü boyunca izleme ve değişiklik kontrolü gibi başlıklara dikkat çekmek için iyi bir başlangıç noktasıdır.


Sağlıkta yapay zekâ: Nerede kullanılır, nerede dikkat gerekir?

Sağlıkta AI, potansiyel faydası yüksek ama risk seviyesi de yüksek bir alandır. Uygulamalar kabaca iki gruba ayrılır: (1) klinik kararları etkileyen çözümler (ör. görüntü analizi, karar destek) ve (2) operasyonel iş akışı çözümleri (ör. dokümantasyon, randevu/triage destek).

Yaygın kullanım senaryoları (use-case)

  • Tıbbi görüntüleme analizi: Radyoloji/dermatoloji gibi alanlarda görüntü üzerinden işaretleme, önceliklendirme veya destekleyici bulgu üretimi.
  • Klinik karar destek: Kılavuzlara uygunluk kontrolü, risk skorları, özetleme; ancak klinik doğrulama gereksinimi yüksektir.
  • Hasta iletişimi ve eğitim: SSS yanıtları, içerik sadeleştirme, taburculuk talimatlarının anlaşılırlaştırılması.
  • Operasyon ve kodlama: Klinik not özetleme, idari süreçlerde sınıflandırma ve yönlendirme.

Yönetişim ve etik: WHO’nun çerçevesi neyi vurgular?

WHO’nun sağlıkta LMM/generatif AI rehberine göre şeffaflık, doğrulama, insan denetimi, güvenlik ve hesap verebilirlik gibi ilkeler, klinik bağlamda “model iyi konuşuyor” düzeyinin ötesinde bir güvence ihtiyacına işaret eder.

ABD odağında düzenleyici hassasiyet: FDA materyallerini nasıl konumlandırmalı?

ABD’de tıbbi cihaz kapsamına giren yazılımlar ve özellikle AI/ML bileşeni olan SaMD ürünleri, kullanım amacı ve risk seviyesine göre değerlendirilir. FDA’nin AI/ML-SaMD materyalleri, bu tür sistemler için yaşam döngüsü yaklaşımı (izleme, güncelleme ve değişiklik kontrolü gibi) başlıklarını öne çıkarır. Sağlık ekosisteminde bir AI ürünü değerlendirirken şu sorular pratik bir başlangıçtır:

  • Ürün “klinik karar” üzerinde etkili mi, yoksa yalnızca idari destek mi sağlıyor?
  • Model zamanla değişiyor mu (adaptif davranış)? Değişiklikler nasıl kontrol edilecek?
  • Performans metrikleri, hedef popülasyon ve kullanım bağlamı için doğrulandı mı?

Not: Bu yazı tıbbi veya hukuki danışmanlık değildir. Sağlıkta AI uygulamaları için kurumunuzun uyum/kalite ekipleri ve güncel resmi materyallerle çalışmanız gerekir.


Finansta AI: Dolandırıcılıktan müşteri hizmetlerine, ama denetim iziyle

Finans kuruluşları AI’yi uzun süredir analitik amaçlarla kullanır; son dönemde generatif AI ile birlikte müşteri iletişimi, doküman işleme ve yazılım geliştirme süreçlerinde de daha görünür hale geldi. Pratikte “beklentiler” çoğu zaman kullanım senaryosuna ve kurumun risk yönetimine göre şekillenir; örneğin OCC’nin bankacılık ve finansta AI üzerine araştırma çağrısı, düzenleyici ilginin canlı olduğuna dair güncel bir işarettir.

Yaygın kullanım senaryoları (use-case)

  • Dolandırıcılık tespiti ve anomali analizi: İşlem akışlarında şüpheli örüntüleri yakalama.
  • Müşteri hizmetleri otomasyonu: Çağrı merkezi asistanları, e-posta sınıflandırma ve yanıt taslakları.
  • Kredi riski ve karar destek: Skorlama, gelir/harcama örüntülerinden sinyal çıkarma (izlenebilirlik ve insan kontrolü tasarımı kritik olabilir).
  • Uyum (compliance) ve belge işleme: Politika/rapor özetleme, KYC benzeri süreçlerde doküman ayrıştırma.

Düzenleyici ilgi: OCC örneği ne anlatır?

OCC duyurusu, bankacılık ve finansta AI konusunun yalnızca teknoloji gündemi değil; aynı zamanda risk, denetim ve yönetişim gündemi olduğunu hatırlatır. Bu nedenle finans ekiplerinde “modelin çalışması” kadar “modelin nasıl yönetildiği ve kayıt altına alındığı” da önem kazanır.

Finans için pratik “terim → kontrol” eşlemesi

  • Açıklanabilirlik/izlenebilirlik: Modelin çıktısı hangi kararı etkiliyor? En azından denetim için geriye dönük takip edilebilir bir kayıt var mı?
  • Model riski: Drift, veri sızıntısı, yanlış genelleme gibi riskler için izleme planı var mı?
  • İnsan onayı: Yüksek etkili aksiyonlarda (ör. kredi limiti değişimi) ikinci kontrol/inceleme adımı tasarlandı mı?

Not: Bu bölüm finansal, yatırım veya hukuki danışmanlık değildir. Finansal ürünler ve karar süreçlerinde kurumunuza/ülkenize özgü uyum gereksinimleri değişebilir; uygulama öncesinde ilgili uyum ve hukuk ekipleriyle değerlendirme yapılmalıdır.


Perakendede AI: Kişiselleştirme, içerik ve tedarik zinciri

Perakendede AI genellikle üç hedefe bağlanır: müşteri deneyimi, ticari verimlilik ve operasyon. Generatif AI; ürün metni üretimi, kampanya varyasyonları ve müşteri destek akışlarında hızlı kazanımlar vadeder. Ancak etki büyüklüklerine ilişkin değerlendirmeler çoğu zaman sektör raporlarının varsayımlarına dayanır; gerçek sonuçlar şirketin verisi, süreç olgunluğu ve uygulama kalitesine göre farklılık gösterebilir.

Yaygın kullanım senaryoları (use-case)

  • Pazarlama kişiselleştirmesi: Segmentasyon, öneri sistemleri, e-posta/landing sayfası varyasyonları.
  • Ürün içerik üretimi: Ürün açıklaması taslakları, kategori metinleri, SSS yanıtları (editör kontrolüyle).
  • Talep tahmini ve stok optimizasyonu: Mevsimsellik, kampanya ve tedarik kısıtlarını hesaba katan tahminleme.
  • Fiyatlama ve promosyon analitiği: Deneme-öğrenme döngüsü (A/B test) ile karar destek.
  • Tedarik zinciri ve lojistik: Rota optimizasyonu, gecikme risklerinin öngörülmesi.

Ekonomik potansiyel analizlerini nasıl okumalı?

McKinsey Global Institute gibi kurumlar generatif AI’nın sektörel ekonomik potansiyeline ilişkin analizler yayımlar. Bu tür yayınlar yön gösterici olabilir; ancak rakamsal sonuçlar varsayımlara duyarlıdır ve “tahmin” olarak ele alınmalıdır.


Sektörler arası ortak riskler: Aynı hatalar farklı sonuçlar doğurur

Üç sektörde de AI projelerinin başarısını belirleyen ortak noktalar vardır:

  • Doğruluk ve uygunluk: Model çıktısı, belirli bir kullanım amacı için yeterince doğru mu?
  • Veri gizliliği ve güvenlik: Özellikle hassas veri (sağlık verisi, finansal veriler) için erişim ve kayıt politikaları net mi?
  • Önyargı (bias) ve adalet: Veri temsil sorunu veya tarihsel önyargılar, belirli gruplar aleyhine sonuç üretebilir.
  • İzlenebilirlik ve denetim: Hangi verilerle hangi model sürümü çalıştı? Çıktı hangi kararı etkiledi?
  • Değişiklik yönetimi: Model güncellemeleri nasıl test edilecek, kim onaylayacak, geriye dönüş planı var mı?

Bu noktada, sağlık özelinde FDA materyalleri yaşam döngüsü/değişiklik kontrolü bakışını öne çıkarırken; WHO rehberi insan denetimi ve hesap verebilirlik gibi yönetişim ilkelerini vurgular.


Uygulamaya geçiş: 10 adımlık pratik kontrol listesi

Aşağıdaki adımlar, ister bir eğitim içeriği hazırlıyor olun ister kurum içinde pilot yapıyor olun, use-case seçiminden canlıya çıkışa kadar en sık atlanan noktaları toparlar.

  1. Kullanım amacını tek cümleyle yazın: “Kime, hangi kararı/işi, hangi sınırlar içinde kolaylaştıracağız?”
  2. Risk seviyesini sınıflayın: İnsan sağlığı, finansal sonuç veya yasal hakları etkiliyor mu? Yüksek riskte daha güçlü insan denetimi planlayın.
  3. Veri envanteri çıkarın: Kaynak sistemler, izinler, saklama süreleri, hassas veri alanları.
  4. Model türünü seçin: Klasik ML mi, LLM mi, hibrit mi? En basit çözüm çoğu zaman daha izlenebilir olur.
  5. Başarı metriklerini belirleyin: Doğruluk tek metrik değildir; hata maliyeti, kapsama, gecikme, memnuniyet gibi metrikleri birlikte tanımlayın.
  6. Değerlendirme seti hazırlayın: Gerçek hayata benzeyen, temsili ve mümkünse zaman içeren (drift) bir test seti.
  7. İnsan denetimi tasarlayın: Hangi çıktılar otomatik, hangileri “öneri” olarak kalacak? Onay akışı ve sorumluluk kimde?
  8. İzlenebilirlik kurun: Model sürümü, prompt/ayarlar (varsa), veri sürümü ve karar kaydı tutuluyor mu?
  9. Pilot → genişleme planı yapın: Önce dar kapsam, sonra kademeli yaygınlaştırma; geri dönüş (rollback) planı.
  10. Sürekli izleme ve güncelleme: Performans düşüşü, güvenlik olayları ve kullanıcı geri bildirimi için rutin kontrol döngüsü.

Hangi sektör için hangi “ilk proje” daha mantıklı?

Genel kural: yüksek etki + düşük risk kesişiminden başlayın.

  • Sağlık: Klinik kararı doğrudan etkilemeyen, operasyonel yükü azaltan kullanım örnekleri (dokümantasyon desteği, randevu yönlendirme) genellikle daha yönetilebilir olabilir. Yine de veri gizliliği ve kalite şarttır.
  • Finans: İç operasyon (doküman sınıflandırma, iç bilgi arama, çağrı merkezi özetleme) erken aşama için daha uygun olabilir; müşteri kararlarını etkileyen alanlarda daha sıkı kontrol gerekir.
  • Perakende: Ürün içerik üretimi ve müşteri destek taslakları hızlı pilotlar sunar; canlıya çıkmadan önce marka dili, doğruluk ve editoryal kontrol süreçleri kurulmalıdır.

Öğrenme için mini sözlük yaklaşımı: Terimi use-case ile eşleştirin

Bir “referans sözlük” yaklaşımıyla ilerlemek isterseniz, her terimi bir kullanım senaryosuna bağlayarak öğrenmek kalıcılığı artırır. Örnek eşleştirme:

  • Drift → “Dolandırıcılık modeli yeni saldırı tiplerinde neden zayıflar?”
  • İnsan denetimi → “Hasta triage asistanı hangi durumlarda mutlaka hemşire onayı ister?”
  • İzlenebilirlik → “Kredi kararına giden zincirde hangi model sürümü çalıştı?”

Bu yaklaşım, e-öğrenme içerikleri hazırlarken de işe yarar: her terim için tanım + örnek + risk + kontrol formatı, kullanıcıların kavramları iş bağlamında anlamasını kolaylaştırır.


Son not: Resmi yayınları düzenli kontrol edin

Bu alan hızlı evriliyor. Sağlıkta FDA’nin AI/ML-SaMD materyalleri ve WHO’nun LMM/generatif AI rehberi; finans tarafında ise OCC gibi kurumların duyuruları, kuruluşların yönetişim yaklaşımını doğrudan etkileyebilir. En iyi sonuç için, kurumunuzun uyum gereksinimlerini ve güncel resmi yayınları düzenli aralıklarla kontrol edin.

Kaynak bağlantıları: FDA | WHO | OCC | McKinsey