OpenAI ÖZETİ| tarafından geliştirilen ChatGPT, son birkaç aydır tüm dünyanın gündeminde. GPT-3 teknolojisinden yararlanan sohbet botu, sorduğunuz her şeye cevap verebiliyordu. Şimdi ise bir geliştirici, bu tarz bir teknolojinin akıllı ev cihazlarına ve sesli asistanlara nasıl katkıda bulunabileceğini gösterdi.
Mate Marcshalko isimli geliştirici, GPT-3 ile Apple’ın sesli asistanı Siri’yi birleştirerek şaşırtıcı derecede akıllı bir ev asistanı oluşturdu. Ayrıca Apple’ın ‘Kestirmeler’ uygulamasından da yararlandı. Marcshalko, ortaya çıkan sonucu Reddit üzerinden bir video ile paylaştı.
Sesli asistan, zorlu komutlara kolayca yanıt veriyor
Paylaşılan videoda, geliştiricinin Siri yoluyla HomeKit akıllı ev cihazlarıyla kontrol ettiği görülebiliyor. Ayrıca asistanın, normalde Siri’nin cevap vermekte zorlanacağı komutlara bile yanıt verebilmesi büyük dikkat çekiyor. Geliştirici, Siri, GPT-3 ve HomeKit özellikli akıllı cihazları arasında arayüz oluşturmak için Apple’ın ‘Kestirmeler’ uygulamasından kullandığını söylüyor.
Örneğin Marcshalko, videoda sesli asistana “Bu videoyu ofiste karanlıkta kaydettiğimi fark ettim, bu konuda bir şeyler yapabilir misin?” dediğini görüyoruz. Yapay zekâ bu cümlenin ardından ise hemen ışıkları açıyor. Devamında ise geliştirici, asistandan odasının sıcaklığını “uyumasına yardımcı olacak şekilde” ayarlamasını istiyor. Yapay zekâ da şaşırtıcı bir şekilde sıcaklığı buna göre ayarlıyor.
Ortaya çıkan demo, sesli asistanların GPT-3 gibi yeni nesil yapay zekâ modelleriyle birleştirildiğinde gelecekte ne kadar gelişebileceğini bizlere gösterdi. Tabii sistemin mükemmel olmadığını söylemek gerek. Geliştiriciye göre GPT-3’e yönelik API istekleri 0,014 dolara mal oluyor. Yani, bu akıllı ev asistanını kullanmak Siri gibi ücretsiz değil.
Bu tarz bir sesli asistan, bazı riskleri de beraberinde getiriyor
Maliyete ek olarak videonun düzenlenmiş olduğunu da görebiliyoruz. Yani sesli asistanın kullanımında bazı aksaklıkların çıktığını, videoya da yalnızca seçili bölümlerin eklendiğini tahmin etmek zor değil.
Siri ve diğer benzer asistanlar, asla kaba, zararlı şeyler söylememek için tasarlandı. Ancak Marschalko’nunkine benzer sistemler bu tarz tehlikeli şeyler söyleyebilme potansiyeline sahip. GPT-3’te de benzer güvenlik önlemleri var; ancak illa ki beklenmedik cevaplarla karşılaşabiliyoruz. Bu da yapay zekâ konusunda bazı soru işaretleri doğuruyor.
Editor : Şerif SENCER