
Pizza siparişlerinden akıllı ev kameralarına kadar, empatik AI artık kararlarımızı gerçek zamanlı olarak dürtüyor. Buna ayak uydurabilir miyiz?
Uzun bir günün sonunda, akşam 8:03'te bir telefon çalar. 44 yıllık Kaliforniya zinciri Pizza My Heart'ta çalışan Jimmy the Surfer'dan bir mesajdır: "Aç mısın? Sevdiğin o Ananas-Jambon kombinasyonuna ne dersin?" Rahat, tasasız bir tonu vardır ama bir sorun vardır: Jimmy gerçek bir sörfçü değildir - hatta gerçek bir insan bile değildir.
Bunun yerine, pizza hakkında sohbet etmek ve sizi nazikçe sipariş vermeye ikna etmek için dikkatlice eğitilmiş bir AI sohbet robotudur. Elbette, sohbet dostça -hatta rahatlatıcı- hissettirir, ancak o hafif sörfçü jargonunun ardında, ne zaman evet deme olasılığınızın en yüksek olduğunu bilen bir algoritma yatar. Ve bu bir soruyu gündeme getirir: Bu zararsız bir kolaylık mı yoksa ince bir manipülasyon biçimi mi?
Yüzeyde, biraz rahatlıkta hiçbir sorun yoktur. Özellikle aç olduğunuzda ve sonsuz yiyecek seçenekleri arasında gezinmek için çok yorgun olduğunuzda. Ancak yeni nesil empatik yapay zeka, hızlı servis veya ürün önerilerinin ötesine geçiyor. Keskin bir kulak ve sohbet yeteneğiyle donatılmış Jimmy gibi sohbet robotları, tercihlerinizi ve ruh hallerinizi yakalamak için özel olarak tasarlanmıştır. Sadece siparişinizi almakla kalmazlar; sizi ona doğru dürterler.
Jimmy the Surfer'a güç veren yeni girişim Palona AI, zincirdeki çalışanların hayatını kolaylaştırabileceğine inanıyor. Şirketin CEO'su ve kurucu ortağı Maria Zhang, Wired'a verdiği demeçte, teknolojinin "satışlarda etkili olmak üzere tasarlanmış bir 'duygusal zeka' dil modeliyle inşa edildiğini; botun mizah, modern mesajlaşma görgü kuralları ve 'nazik ikna' gibi şeylere aşina olduğunu" söyledi.
Ancak etkileşimleri sıcak ve insani hissettiren aynı empati, müşteri hizmeti ile manipülasyon arasındaki çizgiyi de bulanıklaştırabilir. Bize yardımcı olan bir hizmet ile seçimlerimizi etkileyen bir hizmet arasındaki sınır tam olarak nerededir? Rehberlikten manipülasyona ne zaman geçiş yaparız ve tüketici özerkliğinden ödün veririz?
Bu soru teorik değil. Güvenlik kameraları satan Seattle merkezli şirket Wyze, yakında Palona AI'nın teknolojisini bir sihirbaz olarak web sitesinde kullanacak ve alışveriş yapanları ihtiyaçlarına en uygun ürünü bulmaları için yönlendirecek. Sihirbaz, elbette müşterileri Wyze'ın ürün yelpazesine yönlendiriyor ve her fırsatta Wyze'ın Cam Plus Plan'ını satıyor. Tıpkı gerçek bir satış elemanı gibi. Ayrıca müşteri profilinizi oluşturabilir ve tercihlerinizi (ve endişelerinizi) bir sonraki sefere hatırlayabilir.
Palona AI, Güney Carolina'daki bir kontrast terapi spası olan MindZero'da halihazırda bir sohbet robotuna güç veriyor. Müşteriler, Instagram'da fiyatlandırma sorularından saunada çıplak olmanın uygun olup olmadığı gibi kişisel sorulara kadar her şey için işletmeye mesaj gönderebiliyor. Zhang, son sorunun bir insana sorulmasının garip olabileceğini öne sürdü, ancak AI'nın burada bir fark yaratıp yaratmadığından emin olamayız: MindZero'nun botu AI olduğunu söylemiyor. Jimmy the Surfer da söylemiyor. Ve işler burada bulanıklaşıyor.
Bu bulanıklık, kullanıcıların her zaman bir botla sohbet ettiklerini bilmemelerinden kaynaklanmaktadır. Palona AI, Pizza My Heart, MindZero ve Wyze'ın hepsi ABD'de bulunmaktadır ve ABD yasaları ifşayı zorunlu kılmaz. Ancak AB AI Yasası bunu zorunlu kılar. AB AI Yasası, kullanıcıların AI ile etkileşimde bulunduklarının farkında olmalarını gerektiren farklı bir düzenleyici yaklaşıma sahiptir. AB'nin ayrıca Genel Veri Koruma Yönetmeliği (GDPR) gibi mevcut gizlilik yasaları vardır, ancak bu, bu botların kullandığı duygusal verileri korumaz.
AB AI Yasası ve GDPR şeffaflık, veri minimizasyonu ve risk tabanlı denetim gibi önemli ilkeler ortaya koysa da, duygularla başa çıkmak üzere programlanmış AI'ya tam olarak yetişememiştir. Rehberlik ve manipülasyon arasındaki ince çizgiyi anlamak, politika yapıcılar ve tüketiciler için önemlidir: Ne istediğimizi anlamaya çalışan sistemlere nasıl güvenebiliriz?
Hala rafine edilme sürecinde olan AB Yapay Zeka Yasası, risk tabanlı bir sınıflandırma kullanır. Yüksek riskli kabul edilen sistemler (örneğin, sağlık hizmetleri veya kritik altyapıdakiler) daha sıkı gerekliliklerle karşı karşıyadır: kapsamlı dokümantasyon, denetim ve gözetim. Ancak pizza siparişi veren bir sohbet robotu veya alışveriş asistanı genellikle yüksek riskli olarak nitelendirilmez. Bu, sizi ekstra soslara veya bir Cam Plus Planına yönlendirmek için tasarlanmış empatik Yapay Zeka'nın Yasanın en zorlu sınırlarını aşabileceği anlamına gelir.
Şeffaflık gereksinimi (Madde 52'de), kullanıcıların bir AI ile etkileşimde bulunduğunun ifşa edilmesini gerektirir. Ancak pratikte, bunu gözden kaçırmak veya görmezden gelmek de kolaydır - özellikle AI gündelik metin kanallarına derinlemesine örülmüşse.
Empatik sohbet robotları kullanmak isteyen AB işletmeleri için bunun sonuçları var. AB Yapay Zeka Yasası, empatiyi taklit eden LLM'lerin dağıtılmasını engellemiyor; sadece temel bir feragatname gerektiriyor. Tek bir cümle, "Merhaba, ben bir Yapay Zeka asistanıyım", yasal yükümlülükleri karşılamak için yeterli olabilir - ancak bu etik endişeleri ele almıyor. Sonuçta, şu anda Satış veya Müşteri Hizmetleri ile konuştuğumuzda bunu biliyoruz ve bu bilgiyi kararlarımızda kullanıyoruz.
Bununla birlikte, eğer şirketiniz marka özelinde 'yumuşak ikna' için bir dil modelini ince ayarlamak istiyorsa, örneğin tıbbi bir yapay zeka sistemi oluşturan birinin tabi olduğu düzeyde uyumluluk incelemesine tabi tutulmanız gerekmeyebilir.
Bu arada, GDPR belirli veri kategorilerini, örneğin sağlık veya biyometrik verileri, 'özel kategori' olarak sınıflandırarak onlara daha fazla koruma sağlıyor. Duygusal veriler (henüz!) bu kutuya yerleştirilmedi, bu nedenle bir kullanıcıyı daha fazla satın almaya nazikçe ikna eden bir AI, varsayılan olarak hassas olarak tanınan verileri işlemiyor olabilir.
GDPR hala kişisel verilerin toplanması veya işlenmesi için veri minimizasyonu ve açık kullanıcı onayı zorunlu kılıyor. Ancak birçok gerçek dünya senaryosunda, örneğin MindZero'ya sauna görgü kuralları hakkında mesaj atarken, kullanıcılar duygusal ipuçları verdiklerinin farkında olmuyorlar. Aslında herhangi bir veri, çünkü geniş bir T&C onay kutusu veya çerez onay başlığı genellikle bilgilendirilmiş onay olarak geçiyor.
Ancak, model yeniden eğitimi için devasa kullanıcı etkileşimleri boru hatlarını idare ederken, bu duygusal bağlam çatlaklardan sıyrılabilir. Şu anda, çoğu Veri Koruma Yetkilisi açık gizlilik ihlallerine veya büyük veri ihlallerine odaklanıyor; yüksek profilli bir şikayet gelene kadar incelikli iknanın bir soruşturmayı tetiklemesi pek olası değil.
Empatik AI, yeni bir veri güvenliği riski katmanı ekler: duygusal veriler. Güvenlik ekipleri, kullanıcı etkileşimlerinin (muhtemelen stresi, kişisel rutinleri veya özel endişeleri ortaya çıkaran) nasıl depolanacağını ve kimin erişimi olduğunu düşünmelidir.
İşletme şifreleme ve endüstri standardı uygulamalarına uysa bile, duygusal verilerin değeri özel güvenlik açıklarını istismar etmek isteyen kötü niyetli kişileri çekebilir. Boru hattınız her kullanıcı sorgusunu kaydediyorsa, istemeden hassas içgörülerden oluşan bir hazine toplayabilirsiniz. Mevcut düzenlemeler duygu yüklü verileri yalnızca kısmen ele alır, bu nedenle güvenlik ekiplerinizin kendi güvenlik önlemlerini uygulaması gerekir.
Genel olarak, ne AB AI Yasası ne de GDPR, günlük alışveriş deneyimlerinde kullanıcıları ikna eden duygusal zekaya sahip AI sistemlerini tam olarak ele alıyor. İşletmeler için, bu düzenleyici devlet hem fırsat hem de risk sunuyor: anında ağır denetimden uzak bir şekilde yenilik yapma şansı, ancak düzenleyiciler bu ince duygusal dürtmenin çizgiyi aştığına karar verirse itibar geri tepmesi veya gelecekte incelemeye tabi tutulma riski de var.
Kullanıcılar için bu zor bir durum. Bu yüzden telefonunuz akşam 8:03'te pizzayla ilgili dostça bir mesajla çaldığında, gerçekte ne olduğunu düşünün. İnce parlak bir kaplamanın altında, isteklerinize dokunan ve sizi pes etmeye teşvik eden bir yapay zeka olabilir.
Evet, kullanışlı. Ancak aynı zamanda sürtünmesiz hizmete olan isteğimiz ile yapay zeka etrafında sağlam bariyerlere olan ihtiyaç arasındaki büyüyen boşluğu da vurguluyor. Düzenlemeler yetişene kadar, diğer taraftaki sıcak, güven verici ses yardımsever bir arkadaştan daha fazlası olabilir. Duygusal durumunuza hiç beklemediğiniz şekillerde ayarlanmış bir iş stratejisi olabilir.
Öne çıkan görsel kredisi: Adobe Stock | #364586649