Cumartesi, Temmuz 27

Büyük dil modelleri ile gelen beş önemli risk – TEKNOLOJİ

Büyük dil modelleriyle ilişkili beş temel risk Yapay zeka kullananlara dikkat Herkes yapay zekadan ve sunduğu fırsatlardan bahsediyor. İlk günlerde yaşanan heyecan yerini yavaş yavaş risklerin ve gerçekliklerinin sorgulanmasına bıraktı. Siber güvenlik firması ESET, yapay zeka araçlarını destekleyen büyük dil modellerini (LLM’ler) inceliyor. İş dünyası ve BT liderleri, teknolojinin müşteri hizmetleri ve yazılım geliştirme gibi alanlarda yaratacağı risk potansiyelini değerlendirirken, yeni gelişmelerin olası dezavantajlarının ve dikkat edilmesi gereken risklerin de giderek daha fazla farkına varıyor. Büyük dil modellerinin (LLM’ler) potansiyelini ortaya çıkarmak için kuruluşların, teknolojinin işe zarar verebilecek gizli risklerini de dikkate alması gerekir. Büyük dil modelleri nasıl çalışır?ChatGPT ve diğer üretken yapay zeka araçları LLM tarafından desteklenmektedir. Çok büyük miktarda metin verisini işlemek için yapay sinir ağlarını kullanarak çalışırlar. Kelimelerin yapısını ve bağlama göre nasıl kullanıldığını öğrendikten sonra model, kullanıcılarla doğal dilde etkileşime girebiliyor. ChatGPT’nin dikkat çekici başarısının ana nedenlerinden biri şaka yapabilme, şiir yazabilme ve genel olarak gerçek bir kişiden ayırt edilmesi zor bir şekilde iletişim kurabilme yeteneğidir. ChatGPT gibi sohbet robotlarında kullanılan LLM tabanlı üretken yapay zeka modelleri, süper güçlü arama motorları gibi çalışarak soruları yanıtlamak ve görevleri insan benzeri bir dilde gerçekleştirmek için öğrenilen verileri kullanır. Yüksek Lisans tabanlı üretken yapay zeka, ister kamuya açık modeller ister bir kuruluş içinde dahili olarak kullanılan özel modeller olsun, şirketleri belirli güvenlik ve gizlilik risklerine maruz bırakabilir. Dil modelinin beş önemli temel riskiHassas verilerin aşırı paylaşımı Yüksek Lisans tabanlı sohbet robotları sır saklama veya unutma konusunda pek iyi değil. Bu, yazdığınız herhangi bir verinin model tarafından benimsenebileceği ve başkalarının kullanımına sunulabileceği veya en azından gelecekteki LLM modellerini eğitmek için kullanılabileceği anlamına gelir.Telif hakkı zorlukları Yüksek Lisans’lara büyük miktarda veri öğretilir. Ancak bu bilgiler genellikle içerik sahibinin açık izni olmadan web’den alınır. Sürekli kullanımda potansiyel telif hakkı sorunları ortaya çıkabilir.Güvenli olmayan kod Geliştiriciler, pazara çıkış sürelerini hızlandırmalarına yardımcı olmak için giderek daha fazla ChatGPT ve benzeri araçlara yöneliyor. Teorik olarak, bu yardımı hızlı ve verimli bir şekilde kod parçacıkları ve hatta yazılım programlarının tamamını oluşturarak sağlayabilir. Ancak güvenlik uzmanları, bunun aynı zamanda güvenlik açıkları da yaratabileceği konusunda uyarıyor.LLM’nin kendisini hacklemek LLM’lere yetkisiz erişim ve değişiklik yapılması, bilgisayar korsanlarına, modelin hassas bilgileri hızlı enjeksiyon saldırıları yoluyla ifşa etmesine izin vermek veya engellenmesi gereken diğer eylemleri gerçekleştirmek gibi kötü amaçlı faaliyetler gerçekleştirmeleri için bir dizi seçenek sunabilir.Yapay zeka tedarikçisinde veri ihlali Yapay zeka modelleri geliştiren bir şirketin, örneğin bilgisayar korsanlarının hassas özel bilgiler içerebilecek eğitim verilerini çalması gibi bir veri ihlaline uğrama olasılığı her zaman vardır. Aynı şey veri sızıntıları için de geçerli. Riskleri azaltmak için yapılması gerekenler:

  • Veri şifreleme ve anonimleştirme: Verileri meraklı gözlerden gizlemek için LLM’lerle paylaşmadan önce şifreleyin ve veri kümelerinde kimliği belirlenebilecek kişilerin gizliliğini korumak için anonimleştirme tekniklerini göz önünde bulundurun. Veri temizleme, eğitim verilerinden hassas ayrıntıları modele eklemeden önce çıkararak aynı hedefe ulaşabilir.
  • Gelişmiş erişim kontrolleri: Güçlü parolalar, çok faktörlü kimlik doğrulama (MFA) ve en az ayrıcalık politikaları, üretken yapay zeka modeline ve arka uç sistemlerine yalnızca yetkili kişilerin erişebilmesini sağlamaya yardımcı olacaktır.
  • Düzenli güvenlik denetimleri: Bu, BT sistemlerindeki yüksek lisans ve onun üzerine inşa edildiği üretken yapay zeka modellerini etkileyebilecek güvenlik açıklarının ortaya çıkarılmasına yardımcı olabilir.
  • Olay müdahale planlarını uygulayın: İyi prova edilmiş ve sağlam bir olay müdahale planı, kuruluşunuzun herhangi bir ihlali kontrol altına almak, düzeltmek ve ihlalden kurtulmak için hızlı bir şekilde müdahale etmesine yardımcı olacaktır.
  • LLM sağlayıcılarının tüm ayrıntılarını öğrenin: Tüm sağlayıcılarda olduğu gibi, LLM’yi sağlayan şirketin veri güvenliği ve gizlilik söz konusu olduğunda sektördeki en iyi uygulamaları kullandığını kontrol edin. Kullanıcı verilerinin nerede işlenip saklandığına ve modeli eğitmek için kullanılıp kullanılmadığına ilişkin net açıklamalar olduğundan emin olun. Veriler ne kadar süreyle saklanıyor? Veriler üçüncü şahıslarla paylaşılıyor mu? Verilerinizi eğitim amaçlı kullanma tercihimi değiştirebilir miyim?
  • Geliştiricilerin sıkı güvenlik önlemleri aldığından emin olun: Geliştiricileriniz kod oluşturmak için Yüksek Lisans kullanıyorsa, hataların üretime sızma riskini azaltmak için güvenlik testi ve meslektaş incelemesi gibi politikalara uyduklarından emin olun.

Kaynak: (BYZHA) Beyaz Haber Ajansı

—–Sponsorlu Bağlantılar—–

—–Sponsorlu Bağlantılar—–

—–Sponsorlu Bağlantılar—–

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

okulturlari.org
Antalya Haber Sunucu
meritking