AZ

OpenAI Sora dərin saxta böhrana müdaxilə edir!

 

5ef96801ce7ee968c37f1cc1b447bffc.jpg
22.10.2025 12:36

OpenAI Sora, dərin saxta mübahisədən sonra Bryan Cranston və SAG-AFTRA ilə razılığa gəldi. Şirkət AI müdafiəsini gücləndirir.

 

OpenAI Sora deepfake tədbirləri gücləndirildi

 

Mübahisənin mərkəzində Sora 2 video alətinin istifadəçilərə Bryan Cranston kimi məşhurların səslərini və bənzərlərini icazəsiz köçürməyə icazə verməsi olub. Breaking Bad ulduzu vəziyyəti aşkar etdikdən və birliyi ilə əlaqə saxladıqdan sonra OpenAI sürətlə hərəkətə keçdi. Şirkət “arzuolunmaz istehsallar” adlandırdığı üçün üzr istədi və platformada mühafizələri gücləndirdiyini açıqladı.

 

Hollivud nəhəngləri süni intellektə qarşı birləşirlər

 

Bu hadisə süni intellektin yaradıcı sənayelərə təsiri ilə bağlı narahatlığı yenidən artırdı. SAG-AFTRA, Cranston və CAA və UTA kimi böyük istedad agentlikləri OpenAI ilə birgə bəyanat yayıblar. Bu əməkdaşlıq sənətçilərin rəqəmsal şəxsiyyətlərinin qorunması istiqamətində mühüm addım kimi qiymətləndirilir. OpenAI həmçinin rəssamlara öz oxşarlarından istifadə üzərində daha çox nəzarət verəcək yeni siyasətlər hazırlayıb.

 

NO FAKES Aktı üçün tam dəstək

 

Danışıqların digər əsas nəticəsi “SAXTA YOXDUR Aktı” oldu. Həm OpenAI, həm də Hollywood maraqlı tərəfləri fərdləri şəkillərinin rəqəmsal nüsxələrindən qorumaq məqsədi daşıyan bu federal qanun layihəsini tam dəstəklədiklərini bildirdilər. Bu inkişaf texnologiya şirkətləri və məzmun yaradıcıları arasında gələcək qaydalar üçün presedent yarada bilər.

 

 

 

 

Texnologiya bölməsindən digər xəbərlər

Daha çox