top of page

Yapay Zeka Projelerinde Risk Yönetimi: Teknolojiden Fazlası!

Yapay zekâ (YZ) projeleri, sadece teknolojik yenilik değil, aynı zamanda organizasyonel dönüşüm gerektirir. Bu nedenle, geleneksel BT projelerinden farklı bir risk profiline sahiptir. YZ’nin doğasından kaynaklanan yeni ve karmaşık zorluklar ise bu projeleri benzersiz kılar.



Riskleri daha iyi anlamanız için kategorilere ayırdım. Bu riskleri iyi anlamak ve bir plan çerçevesinde ilerlemek yapay zeka projelerinizin başarısını da doğrudan etkileyecektir.

Anlatmak istediğim konular teoride kalmasın diye her bir başlık altına bir örnek bölümü ekledim. Örnekler için tabii ki yapay zekadan destek aldım.


1.Stratejik ve Operasyonel Riskler

YZ projelerinin iş hedefleriyle uyumlu olmaması en yaygın başarısızlık nedenlerinden biridir.

Hizalama Eksikliği (Misalignment): YZ çözümünün, net bir iş problemini çözmemesi veya stratejik hedeflerle uyumsuz olması birimler arası hizalanma eksikliğinden ortaya çıkabilir. Teknoloji ile ilgili departmanların yeni teknolojiyi test etme isteği ile operasyonel birimlerin değişim yönetimine odaklanmaması sonucu YZ süreçlerine güven, birçok projede başarısızlığın sonucu olarak sarsılıyor.

Örnek: Bir perakende şirketinin, mağaza verimliliğini artırmak amacıyla, sadece “en son teknolojiyi kullanmak için” karmaşık bir görüntü işleme modeliyle raftaki ürün yerleşimini milimetrik olarak optimize etmeye çalışması, ancak bu modelin maliyetinin elde edilen marjinal verimlilik artışını karşılayamaması. Proje, teknolojik başarıya ulaşsa bile iş başarısızlığına uğrar.

Net Olmayan ROI (Belirsiz Yatırım Getirisi): YZ projelerinin maliyeti yüksek, getirisi belirsiz veya ölçümlenmesi zordur. Buna karşın son zamanlarda başarılı ve ölçümlenebilir projeler sayesinde bu sorun giderek azalmaktadır.

Örnek: Bir çağrı merkezinin, müşteri memnuniyetini (CSAT) artırması beklenen bir chatbot projesine yatırım yapması, ancak projenin maliyetinin, CSAT puanındaki ölçülemeyen veya çok az artışla haklı çıkarılamaması.

Yetkinlik ve Yetenek Açığı: YZ konusunda yetkin veri bilimci, mühendis ve proje yöneticisi eksikliği, projenin kalitesini ve sürdürülebilirliğini doğrudan etkiler. Bu eksiklik, projeler arttıkça ve kurum içinde deneyim biriktikçe doğal olarak azalacaktır. Burada projeyi hayata geçirmekten ziyade, hayata geçtikten sonra modelin sürekli güncellenmesinin riskine odaklanılmalıdır.

Örnek: Bir bankanın, deneyimli veri bilimcilerin rakip firmaya geçmesiyle kritik öneme sahip kredi risk modelinin bakımını ve güncellenmesini yapamaması. Bu durum, modelin performans sapmasına (drift) yol açar ve hatalı kararlar vermesine neden olur.

Süreç Entegrasyon Sorunları: YZ modelini mevcut iş akışlarına ve sistemlere (örn. CRM, ERP) sorunsuz bir şekilde entegre etmek tamamen farklı bir zorluktur. Burada, özellikle MCP mimarisi değerlendirilmeli, ölçeklenebilir yapılar üzerinde çalışılmalıdır. Ek olarak kaynak sistemlerin entegrasyon seviyeleri de artırılmaya çalışılmalıdır.

Örnek: Bir üretim şirketinin tahmine dayalı bakım modelini geliştirmesi, ancak modelin ürettiği makine arıza uyarılarını eski ve entegrasyona kapalı ERP sistemiyle anlık olarak otomasyonla işleyememesi. Sonuç olarak, uyarıların manuel olarak takip edilmek zorunda kalınması ve reaksiyon süresinin uzaması.

Değişim Yönetimi Direnci: Çalışanların YZ’yi bir tehdit olarak görmesi, benimsememesi veya yeni süreçlere adapte olamaması aslında sadece YZ özelinde değil birçok yeni projede olan bir durumdur. Burada, var olan insan kaynağı düzenli eğitimler ve workshoplar ile yeni süreçlerle adapte edilebilir ve değişime en açık olabilecek kişilerle pilot projeler yapılabilir.

Örnek: Bir hukuk bürosundaki avukatların, YZ destekli belge inceleme aracının önerilerini, kendi profesyonel deneyimlerine veya eski alışkanlıklarına güvenerek sürekli olarak manuel kontrol etmeleri veya kullanmayı reddetmeleri, beklenen verimlilik artışının sağlanamaması.

Bu örneği özellikle değiştirmedim. Bazı durumlarda değişim direnci, süreçlerin optimize edilmesiyle de aşılabilir; YZ ve insan karar mekanizmaları bir süre birlikte ilerleyebilir.


2.Veri ve Model Riskleri

YZ modellerinin kalitesi, temel aldıkları verilerin kalitesiyle doğrudan ilişkilidir. Verisini tanımayan, sınıflandırmamış olan, yönetişimi üzerine süreçlerini kurgulamamış olan firmaların YZ projelerindeki başarı oranları da görece daha düşük olacaktır. Ancak sözleşme yönetimi gibi standartlaşmış süreçlerde, verinin niteliği firmalar arasında fazla değişmediğinden başarı oranı daha sabittir.

Veri Kalitesi ve Yetersizliği: Eksik, hatalı, tutarsız veya yetersiz miktardaki veri, modelin doğru öğrenmesini engeller.

Veri Mahremiyeti ve Güvenliği: (GDPR, KVKK vb.) YZ modellerini eğitmek için kullanılan kişisel ve hassas verilerin yasal düzenlemelere uygun olarak toplanması, saklanması ve anonimleştirilmesi gerekir. Bu da yine veri yönetişimi ile adreslenebilir.

Örnek: Bir e-ticaret sitesinin, ürün tavsiye modelini eğitmek için yalnızca son 6 aydaki verileri kullanması (mevsimsel eğilimleri dışlayarak), bu yüzden bir sonraki kış sezonuna doğru yazlık ürünleri önermesi. Veya müşteri adres verilerindeki yazım hataları nedeniyle lojistik tahminlerinin sürekli hatalı çıkması.

Algoritmik Önyargı (Bias): Eğer eğitim verisi, geçmişteki toplumsal veya operasyonel önyargıları yansıtıyorsa, YZ modeli bu önyargıları öğrenir ve hatta büyüterek adil olmayan veya ayrımcı kararlar verebilir. Bir sosyal medya platformunun, kendi kullanıcı verileriyle eğittiği YZ’nin, platformun kültürel önyargılarını yansıtması sonucu, diğer modellere göre daha sansürsüz davranması olası bir sonuçtur.

Örnek: Bir işe alım YZ sisteminin, geçmişte ağırlıklı olarak erkek adayların işe alındığı verilerle eğitilmesi sonucu, eşit yetkinlikteki kadın adayların CV’lerini, dildeki ince farklılıklar (örn. kullanılan kelime tercihleri) nedeniyle sürekli olarak daha düşük puanlaması.

Model Sapması (Model Drift): Modelin eğitildiği “an” ile “gerçek dünya” arasında zamanla bir fark oluşması. Gerçek dünyadaki veriler değiştikçe (örn. pandemi sonrası değişen tüketici davranışları), modelin performansı düşer. Modelin sürekli güncellenmesi bu sebeple de önemlidir.

Örnek: Bir sahtekarlık tespit modelinin, pandemi öncesi davranışlarla eğitilmesi, ancak pandemiden sonraki online işlem hacmi ve türlerindeki köklü değişimler nedeniyle yeni sahtekarlık türlerini yakalayamaması ve yanlış pozitif/negatif oranlarının kontrol dışına çıkması.

Güvenlik Açıkları: YZ modelleri yeni saldırı vektörlerine açıktır (örn. ‘Adversarial Attacks’ — modeli kandırmaya yönelik veriler, ‘Data Poisoning’ — eğitim verisini bozma).

Örnek: Bir otonom araç modelini kandırmak için, modele beslenen yol işaretleri görüntülerine insan gözüyle algılanamayan küçük pikseller eklenmesi (Adversarial Patch) ve YZ’nin, bir “Dur” işaretini yanlışlıkla “40 km/s Hız Sınırı” işareti olarak algılaması.

3.Etik, Yasal ve Uyumluluk Riskleri

YZ’nin otonom karar verme yeteneği, onu yasal ve etik açıdan karmaşık bir alana sokar. Modelin, hem yasal düzenlemelere hem de kültürel/etik değerlere uygun şekilde eğitilmesi ve çeşitli kontrol mekanizmaları koymak burada oldukça önem kazanır.

Kara Kutu (Black Box) Sorunu: Özellikle derin öğrenme modellerinin, bir kararı neden verdiğini açıklamanın zor veya imkansız olması. Bu durum, şeffaflık ve hesap verebilirlik eksikliğine yol açar. Şirket yönetimlerinin ya bu durumu kabul etmesi ya da belli noktalarda farklı kontrol mekanizmalarının işletilmesi gerekir.

Örnek: Bir finans kuruluşunun, bir müşterinin kredi başvurusunu reddeden bir YZ modelini kullanması, ancak müşteriye veya yasal mercilere reddin nedenini (hangi özelliklerin etki ettiğini) açıklayacak bir mekanizmaya sahip olmaması. Bu durum, yasal zorunlulukları (YZ kararlarının itiraz edilebilir olması) ihlal eder.

Hesap Verebilirlik ve Sorumluluk: YZ modeli hatalı bir karar verdiğinde (örn. otonom bir aracın kaza yapması, hatalı tıbbi teşhis), sorumlunun kim olduğu belirsizdir. Modelin geliştiricisi mi, veri sağlayıcısı mı, yoksa modeli kullanan kurum mu?

Örnek: YZ destekli bir tıbbi teşhis sistemi, nadir görülen bir hastalığı yanlış teşhis eder ve hastanın tedavisi gecikir. Hata, modeli geliştiren şirketin mi, veriyi sağlayan hastanenin mi, yoksa YZ’nin önerisini onaylayan doktorun mu sorumluluğunda olacak? Bu belirsizlik, ciddi hukuki davalara yol açar.

Yasal Uyumluluk (Regülasyonlar): Başta AB Yapay Zeka Yasası (EU AI Act) olmak üzere, dünya genelinde YZ’yi düzenlemeye yönelik yasal çerçeveler hızla gelişmektedir. Bu düzenlemelere uyum sağlayamamak, ciddi yasal ve finansal yaptırımlara yol açabilir. Ek olarak, ülkeler arasındaki kanun farklılıkları da YZ modellerinin eğitimini daha karmaşık hale getirmektedir.

Örnek: Avrupa’da faaliyet gösteren bir teknoloji şirketinin, bir kamu hizmetinde kullanılan YZ sistemini “yüksek riskli” olarak sınıflandırmasına rağmen, AB Yapay Zeka Yasası’nın gerektirdiği risk değerlendirmesi ve dokümantasyon süreçlerini, veri yönetimi denetimlerini uygulamaması. Bu ihmal, yüksek para cezalarıyla sonuçlanır.

4.İnsan-YZ Etkileşimi Riskleri

Otomasyon Önyargısı (Automation Bias): İnsanların, YZ’nin verdiği kararları sorgulamadan kabul etme eğilimi, YZ hatalı olsa bile.

Örnek: Bir hava trafik kontrolörünün, YZ destekli çarpışma uyarı sistemi “güvenli uçuş” raporu verdiğinde, radar ekranındaki ince bir anormalliği manuel olarak kontrol etmeyi bırakması. YZ, nadir bir veri hatası nedeniyle yanlış sonuç üretir ve kontrolör, sisteme aşırı güvenerek potansiyel tehlikeyi gözden kaçırır.

Aşırı Güven veya Güvensizlik: Kullanıcıların modele ya aşırı güvenmesi ya da hiç güvenmemesi, sistemin etkin kullanımını engeller. Model hata yapmaz ya da sürekli hatalı çalışabilir gibi yaklaşımlar YZ süreçlerinin kurum içerisindeki gelişimini negatif etkileyecektir. Daha önce anlattığım gibi, gerekli yerlere kontrol ve düzenli güncelleme ile bu sorunlar azaltılabilir.

Örnek: Bir siber güvenlik analistinin, YZ destekli tehdit tespit sisteminin önerdiği tüm uyarıları (false positive olsa bile) otomatik olarak engellemesi (aşırı güven) veya tam tersine, sistemin ürettiği yüksek öncelikli uyarıları “Yine YZ’nin abartması” diyerek yok sayması (güvensizlik) ve gerçek bir sızmayı gözden kaçırması.

İnsan Odaklılık (Human-in-the-Loop) Eksikliği: Kritik karar alma süreçlerinde (örn. tıp, hukuk) insan denetimini veya müdahalesini sağlayacak mekanizmaların kurulmaması. Kararın sonuçları dikkate alınarak bu kontrolün nasıl yapılacağı belirlenmeli ve gerekli olan tüm süreçlerde insan müdahalesi olmalıdır.

Örnek: Bir fabrika hattında kalite kontrolü yapan YZ robotunun, insan müdahalesi gerektiren beklenmedik bir üretim hatasıyla karşılaştığında, protokol dışı durumu işleyememesi ve sorunun giderek büyümesine neden olması. Kritik süreçlerde son kararın her zaman insanda olması gerekirken bu mekanizmanın atlanması.

Risk Yönetim Döngüsü

YZ risk yönetimi tek seferlik bir eylem değil, sürekli bir süreçtir.

  1. Tanımlama: Potansiyel riskleri (veri, model, etik, operasyonel) proje başlamadan tanımla.

  2. Değerlendirme: Her riskin olasılığını ve potansiyel etkisini analiz et (Yüksek riskli YZ uygulamalarını belirle).

  3. Müdahale: Riski azaltmak için stratejiler geliştir (örn. önyargı azaltma teknikleri, güvenlik testleri, insan denetim noktaları).

  4. İzleme ve Gözden Geçirme: Modelin performansını ve çevresel koşulları sürekli izle ve riskleri düzenli olarak yeniden değerlendir.


Bu döngü, insan kaynakları veya süreç yönetimi gibi alanlardaki sürekli iyileştirme prensiplerine benzer. Düzenli gözden geçirme ve geri bildirim mekanizmaları, YZ projelerinde de aynı derecede önemlidir.

Yapay zekâ risk yönetimi, yalnızca teknik bir gereklilik değil, aynı zamanda kurumsal güven, etik uyum ve sürdürülebilir inovasyonun temel taşıdır. Etkin bir risk çerçevesi kuran kuruluşlar, yalnızca hatalardan korunmaz, aynı zamanda YZ’den elde ettikleri değeri de maksimize ederler.

 
 
 

Yorumlar


bottom of page