شبیه سازی دیجیتال
شبیه سازی دیجیتال (انگلیسی: Digital cloning) یک فناوری نوظهور شامل الگوریتمهای یادگیری عمیق است که به فرد اجازه میدهد صدا، عکسها و ویدیوهای موجود فعلی را بال کیفیت بیش از حد واقعی دستکاری کند.[۱] یکی از تأثیرات چنین فناوری این است که تشخیص فیلمها و عکسهای واقعی و جعلی را برای چشم انسان دشوار میکند.[۲] شبیه سازی دیجیتال را میتوان به شبیه سازی سمعی و بصری (AV)، حافظه، شخصیت و رفتار مصرفکننده طبقهبندی کرد.[۳]
تروبی و براون اصطلاح «کلون فکری دیجیتال» را برای اشاره به تکامل شبیهسازی دیجیتال به یک شبیهسازی دیجیتال شخصیسازی شده پیشرفتهتر ابداع کردند که شامل «نمونهای از همه دادهها و رفتارهای شناخته شده در یک فرد زنده خاص است که در زمان واقعی آنها را ضبط میکند.[۴]
شبیه سازی دیجیتال ابتدا در صنعت سرگرمی رایج شد. ایده کلونهای دیجیتال از شرکتهای فیلم سازی سرچشمه گرفته است که بازیگران مجازی بازیگران مرده را ایجاد میکنند. هنگامی که بازیگران در طول تولید فیلم میمیرند، یک کلون دیجیتالی از بازیگر میتواند با استفاده از فیلمهای گذشته، عکسها و صداهای ضبط شده برای تقلید از شخص واقعی به منظور ادامه تولید فیلم ساخته شود.[۵]
هوش مصنوعی مدرن، امکان ایجاد دیپ فیک را فراهم کرده است. این شامل دستکاری یک ویدیو تا جایی است که شخصی که در ویدیو به تصویر کشیده میشود در حال گفتن یا انجام کارهایی است که ممکن است با آن موافقت نکرده باشد.[۶] در آوریل ۲۰۱۸، بازفید یک ویدیوی دیپ فیک از جردن پیل منتشر کرد، که برای به تصویر کشیدن رئیسجمهور سابق، باراک اوباما، دستکاری شده بود، در حالی که اظهاراتی را که قبلاً در انظار عمومی انجام نداده بود برای هشدار دادن به مردم در برابر خطرات احتمالی دیپ فیک ارائه میکرد.[۷]
تکنولوژی
ویرایشپلتفرمهای آواتار هوشمند (IAP)
ویرایشپلتفرم آواتار هوشمند (IAP) را میتوان به عنوان یک پلتفرم آنلاین که توسط هوش مصنوعی پشتیبانی میشود تعریف کرد که به فرد اجازه میدهد یک کلون از خود ایجاد کند.[۸] فرد باید شبیه سازی خود را آموزش دهد تا با تغذیه الگوریتم صداهای ضبط شده و ویدیوهای متعدد از خود عمل کند و مانند خودش صحبت کند.
دیپ فیک
ویرایشهمانطور که توضیح داده شد، دیپ فیکس نوعی دستکاری ویدیویی است که در آن میتوان افراد حاضر را با ارائه تصاویر مختلف از یک شخص خاص که میخواهند تغییر داد. علاوه بر این، میتوان صدا و کلماتی را که فرد در ویدیو میگوید، با ارسال یک سری صداهای ضبط شده از شخص جدید به مدت حدود یک یا دو دقیقه تغییر داد. در سال ۲۰۱۸ اپلیکیشن جدیدی به نام FakeApp منتشر شد که به عموم مردم این امکان را میدهد تا به راحتی به این فناوری برای ساخت ویدیو دسترسی داشته باشند. این برنامه همچنین برای ایجاد ویدیو بازفید از باراک اوباما، رئیسجمهور سابق، استفاده شد.[۹][۱۰] با استفاده از دیپ فیک، صنایع میتوانند هزینه استخدام بازیگران یا مدلها برای فیلمها و تبلیغات را با ساختن فیلمها و فیلمهای مؤثر با هزینه کم، تنها با جمعآوری مجموعه ای از عکسها و ضبطهای صوتی با رضایت فرد، کاهش دهند.[۱۱]
شبیه سازی صدا
ویرایششبیهسازی صدا موردی از روشهای دیپفیک صوتی است که از هوش مصنوعی برای تولید یک کلون از صدای افراد استفاده میکند. شبیه سازی صدا شامل الگوریتم یادگیری عمیق است که صدای ضبط شده یک فرد را میگیرد و میتواند چنین صدایی را تا حدی ترکیب کند که بتواند صادقانه صدای انسان را با دقت بسیار زیاد لحن و شباهت تکرار کند.[۱۲]
منابع
ویرایش- ↑ Floridi, Luciano (2018). "Artificial Intelligence, Deepfakes and a Future of Ectypes". Philosophy & Technology. 31 (3): 317–321. doi:10.1007/s13347-018-0325-3.
- ↑ Borel, Brooke (2018). "Clicks, Lies and Videotape". Scientific American. 319 (4): 38–43. Bibcode:2018SciAm.319d..38B. doi:10.1038/scientificamerican1018-38. PMID 30273328. S2CID 52902634.
- ↑ "AI Voice Changer". CryptoAIQ - AI & Crypto Trends, Tools, and Reviews (به انگلیسی). 2024-10-08. Retrieved 2024-11-18.
- ↑ Truby, Jon; Brown, Rafael (2021). "Human digital thought clones: the Holy Grail of artificial intelligence for big data". Information and Communication Technology Law. 30 (2): 140–168. doi:10.1080/13600834.2020.1850174. hdl:10576/17266. S2CID 229442428. Text was copied from this source, which is available under a Creative Commons Attribution 4.0 International License.
- ↑ Beard, Joseph (2001). "CLONES, BONES AND TWILIGHT ZONES: Protecting the Digital Persona of the Quick, the Dead and the Imaginary". Berkeley Technology Law Journal. 16 (3): 1165–1271. JSTOR 24116971.
- ↑ Allen, Anita (2016). "Protecting One's Own Privacy In a Big Data Economy". Harvard Law Review. 130 (2): 71–86.
- ↑ Silverman, Craig (April 2018). "How To Spot A Deepfake Like The Barack Obama–Jordan Peele Video". Buzzfeed.
- ↑ Meese, James (2015). "Posthumous Personhood and the Affordances of Digital Media". Mortality. 20 (4): 408–420. doi:10.1080/13576275.2015.1083724. hdl:10453/69288. S2CID 147550696.
- ↑ Silverman, Craig (April 2018). "How To Spot A Deepfake Like The Barack Obama–Jordan Peele Video". Buzzfeed.
- ↑ S. Agarwal, H. Farid, Y. Gu, M. He, K. Nagano, and H. Li, “Protecting world leaders against deep fakes,” in The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, June 2019.
- ↑ Chesney, Robert (2018). "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security" (PDF). SSRN Electronic Journal. 26 (1): 1–58.
- ↑ "Everything You Need To Know About Deepfake Voice". Veritone (به انگلیسی). 2021-10-01. Retrieved 2022-06-30.
- مشارکتکنندگان ویکیپدیا. «Digital cloning». در دانشنامهٔ ویکیپدیای انگلیسی، بازبینیشده در ۱۸ نوامبر ۲۰۲۴.