YAPAY ZEKA MEMURLARI İŞSİZ BIRAKACAK
Yapay Zeka, Daha İyi Hükümet Hizmetleri İçin Çözüm mü?
Hükümetler, yapay zekanın güvenilir tavsiyeler verip veremeyeceğini araştırıyor.
ChatGPT gelmeden çok önce, hükümetler hizmetlerini ve danışmanlıklarını otomatikleştirmek için chatbot'ları kullanma konusunda hevesliydiler.
Hollanda merkezli ve hükümetlerde yapay zeka kullanımı üzerine çalışan bir araştırmacı olan Colin van Noordt: “Bu chatbot'lar, "sınırlı konuşma yeteneklerine sahip, daha basit" olma eğilimindeydi diyor, Ancak son iki yılda ortaya çıkan üretken yapay zeka, daha verimli bir kamu hizmeti vizyonunu yeniden canlandırdı. İnsan benzeri danışmanlar her saat çalışabilir, sosyal yardım, vergi ve hükümetin kamu ile etkileşime geçtiği diğer alanlarda soruları yanıtlayabilir.” Diyor.
Üretken yapay zeka, insan benzeri yanıtlar verecek kadar sofistike ve yeterli kaliteli veriyle eğitildiğinde, teorik olarak, hükümet hizmetleriyle ilgili her türlü soruyu ele alabilir.
Ancak üretken yapay zeka, hatalar yapma veya anlamsız yanıtlar verme - bu duruma "halüsinasyon" deniyor - konusundaki ününü kazanmıştır.
Birleşik Krallık'ta Hükümet Dijital Hizmeti (GDS), vatandaşların hükümet hizmetleriyle ilgili sorularını yanıtlayacak ChatGPT tabanlı bir chatbot olan “GOV.UK Chat” üzerinde testler gerçekleştirdi.
Deneyimlerle ilgili erken bulgular hakkında bir blog yazısında, deneye katılanların neredeyse %70'inin yanıtları yararlı bulduğunu belirtti.
Ancak, sistemin yanlış bilgileri doğruymuş gibi sunduğu birkaç vaka vardı.
Blog ayrıca, zaman zaman yanlış olabilecek bir sisteme gereğinden fazla güven duyulabileceği konusunda da endişelerini dile getirdi.
"Genel olarak, yanıtlar, GOV.UK gibi bir site için gerekli olan en yüksek doğruluk seviyesine ulaşmadı, burada gerçeklerin doğru olması çok önemli. Bu deneyimi doğruluk ve güvenilirlik sorunlarını ele almak için hızla geliştiriyoruz."
Portekiz, yapay zeka destekli bir chatbot'u test ediyor
Portekiz, 2023 yılında evlilik ve boşanma gibi basit konularda temel soruları yanıtlamak üzere tasarlanmış Adalet Pratik Kılavuzu adlı bir chatbot'u piyasaya sürdü. Chatbot, Avrupa Birliği'nin Kurtarma ve Dayanıklılık Tesisi'nden (RRF) sağlanan fonlarla geliştirildi.
1,3 milyon Euro'luk ($1.4m; £1.1m) proje, OpenAI'nin GPT 4.0 dil modeli üzerine kurulu. Evlilik ve boşanmanın yanı sıra, şirket kurma konusunda da bilgi sağlıyor.
Portekiz Adalet Bakanlığı verilerine göre, projenin ilk 14 ayında kılavuz aracılığıyla 28.608 soru soruldu.
Temel bir soru olan: "Bir şirketi nasıl kurabilirim?" sorusunu sorduğumda, iyi performans gösterdi.
Ancak daha zorlu bir soru olan: "18 yaşın altında ama evli isem şirket kurabilir miyim?" diye sorduğumda, bu soruya yanıt vermek için bilgiye sahip olmadığını belirterek özür diledi.
Bir bakanlık kaynağı, yanlış yanıtlar nadir olsa da güvenilirlik açısından hâlâ eksik olduklarını kabul ediyor.
"Bu sınırlamaların, yanıtların güven seviyesinde belirleyici bir artışla aşılacağını umuyoruz," diyor kaynak.
Colin van Noordt : Chatbot'lar, memurların yerini almamalı.
Bu tür kusurlar, birçok uzmanın ihtiyatlı olmayı tavsiye etmesine yol açıyor – Colin van Noordt da bunlardan biri. "Chatbot, insanları yerinden etmek ve maliyetleri düşürmek amacıyla kullanıldığında yanlış gidiyor."
Chatbot'ların, "ek bir hizmet, bilgiye hızlı bir erişim yolu" olarak görülmesinin daha mantıklı bir yaklaşım olacağını ekliyor.
Münih Ludwig Maximilians Üniversitesi'nde yapay zekanın etiği profesörü olan Sven Nyholm, hesap verebilirlik sorununu vurguluyor.
"Bir chatbot, bir memurla değiştirilebilir değil," diyor. "Bir insan, yaptığı eylemlerden dolayı hesap verebilir ve ahlaki olarak sorumlu olabilir.
"Yapay zeka chatbot'ları, yaptıklarından dolayı hesap veremez. Kamu yönetimi hesap verebilirlik gerektirir ve bu nedenle insanlara ihtiyaç duyar."
Nyholm ayrıca güvenilirlik sorununu da vurguluyor.
"Daha yeni tür chatbot'lar, eski tür chatbot'ların yapmadığı şekilde akıllı ve yaratıcı olma yanılsaması yaratıyor.
"Bu yeni ve daha etkileyici chatbot türleri, arada bir komik olabilecek aptalca ve saçma hatalar yapıyor - ancak insanlar önerilerine güvenirse potansiyel olarak tehlikeli olabilir."
Estonya'nın hükümeti, chatbot'ların kullanımında öncü
ChatGPT ve diğer Büyük Dil Modelleri (LLM) önemli tavsiyeler vermeye hazır değilse, belki bir alternatif için Estonya'ya bakabiliriz.
Kamu hizmetlerini dijitalleştirme konusunda Estonya, liderlerden biri olmuştur. 1990'ların başından bu yana dijital hizmetler inşa ediyor ve 2002'de vatandaşların devlet hizmetlerine erişim sağlamasını sağlayan dijital kimlik kartını tanıttı.
Bu yüzden Estonya'nın chatbot'ları tanıtma konusunda ön planda olması şaşırtıcı değil.
Ülke şu anda Bürokratt adı altında devlet hizmetleri için bir dizi chatbot geliştiriyor.
Ancak, Estonya'nın chatbot'ları ChatGPT veya Google'ın Gemini'si gibi Büyük Dil Modellerine (LLM) dayanmıyor.
Bunun yerine, en son yapay zeka dalgasından önce gelen bir teknoloji olan Doğal Dil İşleme'yi (NLP) kullanıyorlar.
Estonya'nın NLP algoritmaları bir isteği küçük segmentlere ayırır, anahtar kelimeleri tanımlar ve bu şekilde kullanıcının ne istediğini çıkarır.
Bürokratt'ta, departmanlar chatbot'ları eğitmek ve yanıtlarını kontrol etmek için kendi verilerini kullanır.
"Bürokratt yanıtı bilmiyorsa, sohbet müşteri destek temsilcisine devredilecek ve temsilci sohbeti devralarak yanıt verecektir," diyor Estonya Bilgi Sistemleri Otoritesi Kişisel Hizmetler Departmanı başkanı Kai Kallas.
Bu, potansiyeli ChatGPT tabanlı bir sisteme göre daha sınırlı bir sistemdir, çünkü NLP modelleri insan konuşmasını taklit etme ve dildeki nüansları algılama yeteneklerinde sınırlıdır.
Ancak, yanlış veya yanıltıcı yanıtlar verme olasılığı düşüktür.
"Bazı erken chatbot'lar vatandaşları soru seçenekleri seçmeye zorladı. Aynı zamanda, chatbot'un nasıl çalıştığı ve yanıt verdiği konusunda daha fazla kontrol ve şeffaflık sağladı," diyor Colin van Noordt.
"LLM tabanlı chatbot'lar genellikle çok daha konuşma kalitesine sahiptir ve daha nüanslı yanıtlar sağlayabilir.
"Ancak bu, sistemin daha az kontrol edilmesi ve aynı soruya farklı yanıtlar verme maliyetine mal oluyor," diye ekliyor.
Comments