Bir hackerın, yapay zeka geliştiricisi OpenAI'ın dahili mesajlaşma sistemlerine erişerek teknolojilerine dair detayları çaldığı ortaya çıktı. Veri ihlali, olay senenin başlarında gerçekleşmiş olmasına rağmen şirket, bu durumu ulusal güvenliğe bir tehdit olarak değerlendirmediği için bildirmeyi veya yetkilileri bilgilendirmeyi tercih etmemiş.
Yakın kaynaklar, The New York Times'a, hackerın OpenAI çalışanlarının çevrimiçi forumlardaki en yeni yapay zeka teknolojileri hakkındaki konuşmalarından detayları çektiğini belirtti. Ancak kaynaklar, hackerın şirketin yapay zeka sistemlerine doğrudan erişemediğini ifade etti.
OpenAI yöneticileri, olayı Nisan 2023'te şirketin San Francisco ofisindeki bir toplantıda çalışanlarına açıklamış ve yönetim kurulunu bilgilendirmişlerdir.
Ancak kaynaklar, müşteri veya ortakların herhangi bir bilgisinin çalınmadığını belirterek, yöneticilerin durumu kamuoyuyla paylaşmama kararı aldığını söyledi. Ulusal güvenliği tehdit eden bir durum olarak görülmediği için, hackerin sivil bir birey olduğuna ve yabancı bir hükümetle bağlantısının olmadığına inanıldığı için OpenAI yöneticileri FBI veya diğer kolluk kuvvetlerini bilgilendirmedi.
The Times, bu olayın bazı çalışanlar arasında, ABD'nin ulusal güvenliğini zamanla tehdit edebilecek yapay zeka teknolojilerinin Çin gibi yabancı düşmanlar tarafından çalınabileceği endişelerine neden olduğunu bildirdi. Bu durum, OpenAI'ın güvenlik konusundaki yaklaşımının ve şirket içinde yapay zeka teknolojisinin risklerine karşı tutumunun sorgulanmasına yol açtı.
Veri ihlali sonrasında, OpenAI teknik program müdürü Leopold Aschenbrenner, şirketin yönetim kuruluna zararın en aza indirilmesi için yeni yapay zeka teknolojilerine odaklanacaklarını belirten bir mesaj gönderdi. Aschenbrenner, şirketin yabancı düşmanların sırlarını çalmasını önlemek için yeterince önlem almadığını iddia etti, ancak ileriye dönük olarak şirketin güvenliğini artırmak için çalışacaklarını sözlerine ekledi.
Sonrasında Aschenbrenner, OpenAI'dan bahar aylarında ayrıldığını ve işten çıkarılmasının arkasında siyasi motivasyonlar olduğunu iddia etti. İhlal hakkında daha önce detaylı bilgi verilmemiş olmasına rağmen, konu geçtiğimiz günlerde bir podcast'te ima edilmişti.
OpenAI sözcüsü Liz Bourgeois, The New York Times'a şunları söyledi:
“Leopold'un OpenAI'dayken dile getirdiği endişeler için minnettarız ve ayrılmasının sebebi bu değildi. Güvenilir YGZ (yapay genel zeka) üretmeye bağlılığını paylaşsak da sonradan dile getirdiği çalışmalarımıza yönelik iddialarının çoğuna katılmıyoruz.Buna güvenliğimizi, özellikle kendisi şirkete girmeden önce ele aldığımız ve kurulumuza ilettiğimiz bu olayı tanımlama şekli de dahil.”