Bu rehber neyi amaçlıyor?
Yapay zeka (özellikle büyük dil modelleri) hızla yaygınlaştıkça, yeni terimler de günlük dile karıştı: prompt mühendisliği, multimodal (çok kipli) modeller, chain-of-thought (CoT), few-shot / in-context learning, emergent capabilities… Bu terimleri “sözlük tanımı” gibi ezberlemek yerine, ne zaman işinize yarar, nasıl uygulanır, nerede sınırlıdır sorularıyla birlikte anlamak daha faydalı.
Bu yazı; genel okuyucu için, kaynaklara dayalı ve pratik bir çerçeve sunar. Prompt tasarımı için üretici rehberlerinden, CoT için akademik çalışmalardan ve multimodal kullanım örnekleri için güncel üretici duyurularından yararlanır.
Hızlı sözlük: Terimler bir cümlede
- Prompt mühendisliği (prompt engineering): Modele net talimat, bağlam ve çıktı formatı vererek daha tutarlı ve hedefe uygun yanıt alma yöntemleri bütünü.
- Multimodal (çok kipli) model: Metinle birlikte görsel gibi birden çok girdi türünü birlikte değerlendirerek çıktı üreten model sınıfı (desteklenen modaliteler modele/sağlayıcıya göre değişebilir).
- Chain-of-thought (CoT): Bazı görevlerde modelin ara muhakeme adımlarını üretmesini teşvik eden istem yaklaşımı; özellikle muhakeme ağırlıklı problemlerle anılır.
- Few-shot / in-context learning: Modelin ağırlıklarını değiştirmeden, prompt içine konan birkaç örnekten “örüntüyü” yakalayıp benzer işi yapması.
- Emergent capabilities: Ölçek veya eğitim dinamikleriyle bazı yeteneklerin belirginleşmesi fikri; literatürde nasıl ölçülüp yorumlanacağı tartışmalıdır.
1) Prompt mühendisliği: “Ne istediğini” modele öğretmek
Prompt mühendisliği, bir modeli “ikna etme sanatı” değil; talimat tasarımı, bağlam yönetimi ve çıktı kontrolü gibi pratik bir süreçtir. Üretici en iyi uygulama rehberlerinde vurgulanan yaklaşım, açık hedefler, net kısıtlar, örnekler ve iterasyonla kaliteyi yükseltmektir. (Kaynak: OpenAI Help Center prompt engineering best practices)
Prompt mühendisliğinin temel bileşenleri
- Hedef: “Ne üretsin?” (özet, açıklama, tablo, soru seti, kod taslağı vb.)
- Kapsam: “Neleri kapsasın/kapsamasın?” (hedef kitle, seviye, uzunluk, kapsama dışı)
- Bağlam: “Hangi bilgiye dayanarak?” (metin, yönergeler, veri parçaları)
- Format: “Nasıl sunsun?” (madde madde, tablo, JSON benzeri yapı, başlıklar)
- Kalite kontrol: “Yanıtı nasıl doğrulasın?” (varsayımlar, belirsizlikler, kontrol listesi)
Uygulanabilir bir prompt şablonu
Aşağıdaki şablon, çoğu genel amaçlı kullanımda iyi bir başlangıç noktasıdır:
Görev: [tek cümlede hedef]
Bağlam: [metin/veri/amaç]
Kitle ve ton: [genel okuyucu, teknik değil, Türkçe]
Kısıtlar: [uzunluk, madde sayısı, kapsama dışı]
Çıktı formatı: [başlıklar + tablo + kontrol listesi]
Kalite: Belirsiz noktaları belirt; gerekiyorsa netleştirici soru sor.
Örnek 1: Online sözlük/öğrenme içeriği üretimi
Bir e-öğrenme veya referans sitesinde terim sayfası hazırladığınızı düşünün:
Görev: “Chain-of-thought (CoT)” terimi için 200–250 kelimelik bir açıklama yaz.
Kitle: Genel okuyucu, teknik terimleri kısaca açıkla.
Kısıtlar: Abartılı kesinlik kullanma; nerede işe yarayıp nerede sınırlı olduğunu belirt.
Format: 1 paragraf tanım + 3 madde kullanım alanı + 3 madde dikkat noktası.
Bu tarz yapılandırma; metni hem okunabilir kılar hem de editöryal standartları (tutarlılık, kapsam, ton) korumayı kolaylaştırır.
Örnek 2: Kurumsal kullanım için çıktı standardizasyonu
Örneğin müşteri destek ekibi için yanıt şablonları üretmek istiyorsunuz:
Görev: Aşağıdaki kullanıcı sorusuna, şirket diline uygun bir destek yanıtı yaz.
Politika: Gizli bilgi isteme; emin olmadığın konularda kullanıcıyı doğru kanala yönlendir.
Çıktı formatı: “Kısa yanıt” + “Adım adım çözüm” + “Gerekirse ek bilgi” başlıkları.
Prompt mühendisliği kontrol listesi
- Tek bir prompt içinde hedefi netleştirdiniz mi?
- Girdi metinlerini ayırmak için tırnak/ayraç gibi işaretler kullandınız mı? (Örn. “Aşağıdaki metin: …”)
- İstenen çıktı biçimini örnekle gösterdiniz mi?
- Modelin bilmediği/erişemeyeceği bilgileri varsaymadınız mı?
- Gerekirse “Önce 2–3 netleştirici soru sor” gibi bir adım eklediniz mi?
Bu yaklaşım, özellikle aynı görev için tekrar tekrar içerik üretirken kaliteyi daha tutarlı hale getirebilir. (Kaynak: OpenAI best practices)
2) Chain-of-thought (CoT): Muhakemeyi tetikleyen istem yaklaşımı
Chain-of-thought prompting, modelin “sonuç”tan önce ara akıl yürütme adımları üretmesini teşvik eden bir yöntem olarak bilinir. Bu yaklaşımın bazı büyük modellerde, özellikle matematiksel ve mantıksal görevlerde performans artışıyla ilişkili olabildiğine dair deneysel bulgular rapor edilmiştir. (Kaynak: Wei et al., 2022, Chain-of-Thought Prompting)
CoT ne zaman daha anlamlı olur?
- Çok adımlı problemler: Hesaplama, mantık bulmacaları, kural uygulama.
- Planlama gerektiren işler: İçerik taslağı çıkarma, ders planı oluşturma, analiz adımları.
- Hata ayıklama: “Nerede yanlış yaptın?” türü teşhis çalışmaları (özellikle örneklerle).
CoT için pratik prompt kalıpları
Her sistem “adım adım” açıklamayı aynı şekilde ele almayabilir. Bu yüzden iki pratik kalıp sık kullanılır:
- Planla sonra yanıtla: “Önce kısa bir plan çıkar, sonra nihai yanıtı ver.”
- Kısa gerekçe + sonuç: “Cevabını 2–4 maddelik kısa gerekçe ile destekle, sonra sonucu ver.”
Bu kalıplar, gereksiz uzamayı azaltırken muhakeme kalitesine yardımcı olabilir. Yine de her görevde garanti değildir; deneme-yanılma ve değerlendirme gerekir.
CoT’nin sınırlamaları (neden her şeyin ilacı değil?)
- Her görev muhakeme istemez: Basit bilgi çıkarımı veya biçim dönüştürme işlerinde faydası sınırlı olabilir.
- Uzun akıl yürütme metni kaliteyi garanti etmez: Model “ikna edici görünen” ama hatalı adımlar üretebilir; bu nedenle doğrulama önemlidir.
- Değerlendirme ihtiyacı: CoT’yi “başarı ölçütü” olan görevlerde A/B test gibi ölçümlerle karşılaştırmak daha sağlıklıdır.
CoT’yi ölçmek için mini değerlendirme önerisi
Eğitim/edtech veya sözlük içerik üretiminde pratik bir yöntem:
- Aynı problem seti için iki istem hazırlayın: “standart” ve “planla sonra yanıtla”.
- 10–30 örnek üzerinde sonuçları karşılaştırın: doğruluk, tutarlılık, açıklama kalitesi.
- Yanlışlarda ortak hata tiplerini etiketleyin (yanlış varsayım, eksik adım, format hatası).
Wei ve arkadaşlarının çalışması, CoT’nin bazı sınıflarda fayda gösterebildiğini rapor eder; pratikte sonuçlar modele ve göreve göre değişebilir. (Kaynak: arXiv:2201.11903)
3) Multimodal (çok kipli) modeller: Metin + görsel ile yeni iş akışları
Multimodal modeller, tek bir girdi türü (yalnız metin) yerine birden çok girdi türünü birlikte işleyebilir. Bu yazıda en yaygın örnek olan metin + görsel odağında ilerliyoruz. (Bazı sağlayıcılar/model sürümleri ek modaliteler de sunabilir; destek kapsamı model dokümantasyonuna göre değişir.)
Multimodal moderasyon örneği olarak OpenAI, metin ve görsel girdileri birlikte ele alan bir moderasyon modeline geçişi ve çok dilli performans gibi iyileştirmeleri duyurmuştur. (Kaynak: OpenAI: multimodal moderation model)
Multimodal kullanım senaryoları (genel okuyucu için)
- E-öğrenme: Bir diyagram/grafik paylaşılır, modelden “bu grafiği basit Türkçe ile açıkla” denir.
- Referans/sözlük: Bir ekran görüntüsündeki terimleri çıkarıp açıklayan mini sözlük kartları üretilebilir (insan kontrolüyle).
- Güvenlik ve içerik sınıflandırma: Metin + görsel birlikte değerlendirilerek daha bağlamsal kararlar desteklenebilir.
Multimodal prompt yazmanın ipuçları
- Görsele görev verin: “Görseldeki ana nesneleri listele” yerine “Görseldeki tabloyu satır satır metne çevir” gibi net istekler.
- Belirsizlikleri yönetin: “Emin olmadığın yerleri ‘belirsiz’ diye işaretle” talimatı ekleyin.
- Çıktı formatını sabitleyin: Örneğin bir tablo dönüştürme işinde sütun adlarını önceden verin.
Multimodal sistemlerde dikkat edilmesi gerekenler
- Modalite desteği değişkendir: Her model her tür görseli aynı kaliteyle anlamayabilir; güncel üretici dokümantasyonunu kontrol edin.
- Gizlilik: Görselde kişisel veri (kimlik, adres, yüz) varsa kurumsal politikalar ve platform kuralları önceliklidir.
- Doğrulama: Görselden metin çıkarma gibi işlerde hatalar olabilir; kritik içerikte insan incelemesi gerekir.
4) Few-shot / in-context learning: “Örnekle öğretme” yaklaşımı
Few-shot learning (veya in-context learning), modelin ağırlıklarını güncellemeden, prompt içine yerleştirilen birkaç örnekle istenen kalıbı yakalamasını hedefler. Bu, pratikte çok yaygındır: biçimlendirme, sınıflandırma, etiketleme, kısa tanım üretimi gibi işlerde birkaç iyi örnek çoğu zaman çıktıyı belirgin biçimde iyileştirebilir.
Üretici prompt kılavuzları da örneklerle yönlendirmeyi sık kullanılan bir yöntem olarak ele alır. (Kaynak: OpenAI best practices)
Few-shot örneği: Terim kartı formatı standardı
Bir referans sitesinde her terim kartının aynı şablonda olmasını istiyorsunuz:
Örnek 1
Terim: Multimodal model
Kısa tanım: Metin ve görsel gibi birden çok veri türünü birlikte işleyebilen model.
Kullanım: Görsel soru-cevap, içerik analizi.
Dikkat: Yanlış yorum riskine karşı doğrulama.Örnek 2
Terim: Few-shot learning
Kısa tanım: Prompt içine birkaç örnek ekleyerek modelin benzer çıktılar üretmesini sağlama.
Kullanım: Etiketleme, formatlama.
Dikkat: Örnek kalitesi çıktıyı doğrudan etkiler.Şimdi yeni terim: Chain-of-thought (CoT)
Burada “az sayıda örnek” aslında bir biçim sözleşmesi kurar. Bu sözleşme, içerik üretimini hızlandırırken editöryal tutarlılık sağlar.
5) Emergent capabilities: Neden temkinli konuşuluyor?
Emergent capabilities (beliren/ortaya çıkan yetenekler) fikri, ölçek veya eğitim süreci ilerledikçe bazı yeteneklerin daha belirgin hale gelmesiyle ilişkilendirilir. Ancak bu konu, nasıl ölçüldüğü ve “ani sıçrama” anlatımının gerçekten bir olgu mu yoksa değerlendirme/ölçek etkisi mi olduğu açısından literatürde tartışmalıdır.
Örneğin, devam eden ön eğitim (continued pretraining) bağlamında “emergent abilities” üzerine çalışan güncel çalışmalar, eğitim dinamikleriyle yetenek gözlemleri arasındaki ilişkiyi incelemektedir. (Kaynak: ACL 2025: Emergent Abilities under Continued Pretraining)
Bu terimi nasıl “doğru” kullanmalı?
- Kesin hüküm yerine bağlam verin: “Şu ölçekte kesin ortaya çıkar” demek yerine “bazı ölçümlerde belirginleştiği rapor ediliyor” gibi temkinli dil.
- Metodolojiye dikkat edin: Ölçüt (benchmark), veri seti ve değerlendirme yöntemi sonuçları etkiler.
- Güncellik önemli: Modeller ve değerlendirmeler hızla değiştiği için kaynak tarihi ve sürümü not edin.
Terimler arası farklar: Kısa karşılaştırma tablosu
| Terim | Ne işe yarar? | Ne zaman kullanılır? | Yaygın risk/sınırlama |
|---|---|---|---|
| Prompt mühendisliği | Talimatları yapılandırarak çıktı kalitesini artırma | Hemen her LLM işinde | Belirsiz hedefler tutarsız sonuç üretir |
| Chain-of-thought (CoT) | Çok adımlı muhakemeyi tetikleme | Matematik/mantık/planlama | Uzun açıklama hatayı gizleyebilir; doğrulama gerekir |
| Multimodal (çok kipli) | Metin+görsel gibi çoklu girdilerle çalışma | Belge/görsel analizi, moderasyon | Girdi kalitesi değişir; gizlilik hassas |
| Few-shot | Örneklerle biçim/kalıp öğretme | Etiketleme, şablonlu içerik | Örnekler zayıfsa model de zayıf taklit eder |
| Emergent capabilities | Ölçek/eğitimle yetenek gözlemlerini tartışma | Araştırma, model değerlendirme | Ölçüm ve yorum farklılıkları nedeniyle tartışmalı |
Uygulama: 15 dakikalık mini çalışma planı
Adım 1: Tek bir hedef seçin
Örn. “AI terimlerini sadeleştirip sözlük kartı üreteceğim.”
Adım 2: Prompt şablonunu sabitleyin
- Tanım uzunluğu
- 3 kullanım alanı
- 3 dikkat noktası
- Bir örnek cümle
Adım 3: Few-shot ile iki örnek ekleyin
İyi yazılmış iki kart, üçüncü kartın kalitesini belirgin artırabilir.
Adım 4: Muhakeme gerektiren içerikte “planla sonra yanıtla” deneyin
Örn. “CoT’yi açıklarken önce 3 maddelik plan çıkar.”
Adım 5: Çıktıyı kontrol listesiyle denetleyin
- Tanım anlaşılır mı?
- Belirsiz noktalar açıkça işaretlenmiş mi?
- Gereksiz kesinlik var mı?
- Örnekler gündelik hayata temas ediyor mu?
Sonuç
Tek bir işi daha iyi yaptırmak için önce prompt mühendisliği ile hedef, bağlam ve formatı netleştirin; çıktı hâlâ tutarsızsa few-shot ile 1–3 iyi örnek ekleyin. Çok adımlı problem çözmede chain-of-thought (CoT) kalıplarını (ör. “planla sonra yanıtla”) deneyin; metin + görsel gibi karma girdilerde ise multimodal sistemleri tercih edin ve sonuçları mutlaka doğrulayın.
Kaynaklara dayalı notlar ve güncellik uyarısı
Bu alanda ürün yetenekleri ve en iyi uygulamalar hızla değişir. Prompt uygulamaları için üretici dokümanları iyi bir başlangıç sağlar. CoT gibi teknik kavramlarda ise akademik kaynaklar “hangi koşullarda işe yarayabildiğine” dair daha net çerçeve sunar.
- Prompt uygulamaları: OpenAI Help Center rehberi
- CoT’nin deneysel çerçevesi: Wei et al., 2022
- Multimodal moderasyon örneği: OpenAI blog
- Emergent abilities üzerine güncel tartışma: ACL 2025 çalışması
Not: Bu yazı, eğitim amaçlı genel bilgilendirme sunar; kurum içi politika, güvenlik veya uyumluluk kararları için güncel üretici dokümanları ve profesyonel değerlendirme esas alınmalıdır.