Damıtma saldırısı nedir ve Anthropic, neden Çinli yapay zeka şirketlerini suçluyor?

Şubat 25, 2026 - 15:00
 0
Damıtma saldırısı nedir ve Anthropic, neden Çinli yapay zeka şirketlerini suçluyor?
Damıtma saldırısı nedir ve Anthropic, neden Çinli yapay zeka şirketlerini suçluyor?

ABD’li yapay zeka şirketi Anthropic, Çinli yapay zeka şirketlerinin Claude modellerinden “endüstriyel ölçekte” veri sızdırarak model kopyaladığını öne sürdü.

ABD merkezli yapay zeka şirketi Anthropic, Çin merkezli bazı laboratuvarların kendi modellerinden bilgi “damıtarak” (distillation) kopyalama yaptığını iddia etti. Şirket, Çinli DeepSeek, Moonshot AI ve MiniMax’i, Claude adlı yapay zeka modellerine yönelik “endüstriyel ölçekli saldırı kampanyaları” yürütmekle suçladı.

 

Anthropic’in blog paylaşımına göre söz konusu şirketler, hizmet şartlarını ve bölgesel erişim kısıtlamalarını ihlal ederek yaklaşık 24 bin sahte hesap üzerinden Claude ile 16 milyondan fazla etkileşim gerçekleştirdi.

 

Şirket, bu süreçte modellerinden sistematik biçimde bilgi çekildiğini savundu.

 

DAMITMA NEDİR?

 

Model damıtma (distillation), büyük bir “öğretmen” modelin öğrendiği kalıpların daha küçük bir “öğrenci” modele aktarılması anlamına geliyor.

 

Amaç, devasa hesaplama gücü gerektiren bir modeli doğrudan kullanmak yerine, ona benzer performans gösteren ancak daha az kaynak tüketen bir model üretmek. Bu sayede mobil cihazlarda ya da daha düşük maliyetli sunucularda çalışabilen verimli sistemler geliştirilebilir.

 

Süreç genellikle şöyle işliyor: Öğretmen model, çok sayıda komuta yanıt üretir. Öğrenci model ise yalnızca doğru cevabı değil, öğretmenin verdiği olasılık dağılımını ve ince ayarlı çıktıları da taklit edecek şekilde eğitilir. Yani öğrenci model, “Doğru cevap ne?” sorusunun ötesinde, öğretmenin nasıl düşündüğünü ve seçenekleri nasıl ağırlıklandırdığını öğrenir. Bu yöntem, klasik denetimli öğrenmeye kıyasla daha zengin bir sinyal sağlar.

 

Derin öğrenme alanında kullanılan bu teknik, performansı büyük ölçüde koruyarak daha küçük ve verimli modeller üretmeyi amaçlıyor. Ancak aynı yöntem, mevcut bir modeli dolaylı biçimde kopyalamanın da yolu olarak görülüyor.

 

Anthropic, dağıtık altyapılar üzerinden yürütüldüğünü öne sürdüğü bu veri toplama faaliyetlerini “hydra kümeleri” olarak adlandırdı. Saldırıların, hafifçe değiştirilmiş çok sayıda komut gönderilerek model yanıtlarının toplanması ve ardından bunların yeni modelleri eğitmek için kullanılması şeklinde gerçekleştiği belirtildi.

 

Damıtma, performans optimizasyonu için meşru ve yaygın bir teknik olsa da, başka bir şirketin model çıktıları sistematik biçimde toplanıp yeni bir modeli eğitmek için kullanıldığında fikri mülkiyet tartışmalarını beraberinde getiriyor.

 

ULUSAL GÜVENLİK VURGUSU

 

Şirket, izinsiz şekilde “damıtılmış” modellerin yeterli güvenlik önlemlerine sahip olmayabileceğini ve bunun siber saldırılar, dezenformasyon kampanyaları ya da kitlesel gözetim gibi riskleri artırabileceğini savundu.

 

Anthropic açıklamasında, “Yasa dışı biçimde damıtılmış modeller gerekli güvenlik bariyerlerinden yoksundur ve ciddi ulusal güvenlik riskleri yaratır” ifadelerine yer verdi. Şirket ayrıca bu tür modellerin açık kaynak hâline getirilmesi durumunda risklerin daha da büyüyeceğini ileri sürdü.

 

Anthropic’in en büyük rakiplerinden OpenAI de iki hafta önce ABD Temsilciler Meclisi’nin Çin Özel Komitesi’ne sunduğu bir notta, Çinli aktörlerin gelişmiş modellerden bilgi çıkarma yöntemlerini daha sofistike hâle getirdiğini savunmuştu. OpenAI, özellikle DeepSeek modellerinin kimya ve biyoloji gibi yüksek riskli alanlarda yeterli güvenlik önlemleri içermediğini öne sürmüştü.

 

KENDİLERİ DE TELİF İHLALİYLE SUÇLANIYOR

 

Öte yandan Anthropic ve diğer büyük ABD’li yapay zeka şirketleri de modellerini eğitirken telif hakkıyla korunan içerikleri izinsiz kullandıkları iddiasıyla çok sayıda davayla karşı karşıya. ABD mahkemeleri, yapay zeka modellerinin kamuya açık ya da telifli verilerle rıza olmaksızın eğitilmesinin hukuka aykırı olup olmadığını değerlendirmeyi sürdürüyor.

 

Örneğin üç ABD’li yazar, Anthropic’in Claude’u eğitirken eserlerini ve binlerce başka kitabı izinsiz kullandığı gerekçesiyle dava açmıştı. Dava dosyasında, şirketin korsan veri kaynaklarından (ör. LibGen) milyonlarca korsan kitap indirdiği, bu içerikleri kopyalayıp Claude’un eğitiminde kullandığı iddia edilmişti.

 

Müzik endüstrisinden büyük yayıncılar da (Universal Music Group ve Concord Music Group gibi) Anthropic’e yaklaşık 3 milyar dolar tazminat talebiyle dava açmıştı. Bu davada, şirketin Claude’u eğitirken 20 binden fazla telifli şarkı sözünü ve nota bilgisini izinsiz kullandığı iddia edilmişti.

 

Ayrıca Reddit gibi platformlar da Anthropic’i kullanıcı yorumlarını izin almadan kazıyarak (scraping) veri toplamak ve modellerini eğitmek için kullanmakla suçlamıştı; bu dava, telif hakkı kadar kullanıcı sözleşmesi ve veri kullanımı ihlali iddialarını da içeriyor.

 

Diğer yandan OpenAI da ABD’de 16 ayrı telif hakkı davasının birleştirildiği geniş kapsamlı bir telif ihlali sürecinde davalı konumda.

 

PENTAGON-ANTHROPIC GERİLİMİ BU İŞİN NERESİNDE?

 

Anthropic’in geliştirdiği Claude, şu anda ABD ordusunun gizli sistemlerinde kullanılan tek yapay zeka modeli konumunda.

 

Claude’un ocak ayında Venezuela lideri Nicolás Maduro’ya yönelik bir operasyonda kullanıldığı da daha önce basına yansımıştı.

 

Öte yandan, Anthropic’in kullanım kuralları, Claude’un şiddeti kolaylaştırmak, silah geliştirmek ya da gözetim faaliyetleri yürütmek amacıyla kullanılmasını yasaklıyor. Bu yüzden şirket, son dönemde Pentagon’la gerilim yaşıyor.

 

Axios’a konuşan Pentagon yetkilileri, bakanlığın Anthropic’i “riskli” olarak etiketleme tehdidinde bulunduğunu öne sürmüştü. Şirket bu şekilde etiketlenirse ABD’de adeta Çinli bir şirketmiş gibi muamele görecek. Böyle bir karar, ABD ordusuyla iş yapmak isteyen tüm şirketlerin Anthropic ile bağlarını koparmasını gerektirecek.

 

Anthropic’in Çin’li yapay zeka firmalarıyla ilgili suçlaması da tam bu tartışmaların ortasında geldi.

 

ABD-ÇİN REKABETİ

 

Yapay zeka alanında ABD ile Çin arasındaki rekabet giderek sertleşirken, sektör temsilcileri ulusal güvenlik boyutuna daha fazla vurgu yapıyor.

 

Son olarak yayımlanan Uzunlamasına Uzman Yapay Zeka Paneli (LEAP) raporuna göre uzmanlar, ABD ve Çin modelleri arasındaki performans farkının 2031’e kadar belirgin şekilde kapanmasını, 2041’e doğru ise iki ülkenin eşit seviyeye ulaşmasını bekliyor.

 

Anthropic’in suçlamalarına ilişkin olarak adı geçen Çinli şirketlerden henüz resmen yanıt gelmedi.