شبیه سازی دیجیتال

شبیه سازی دیجیتال (انگلیسی: Digital cloning) یک فناوری نوظهور شامل الگوریتم‌های یادگیری عمیق است که به فرد اجازه می‌دهد صدا، عکس‌ها و ویدیوهای موجود فعلی را بال کیفیت بیش از حد واقعی دستکاری کند.[۱] یکی از تأثیرات چنین فناوری این است که تشخیص فیلم‌ها و عکس‌های واقعی و جعلی را برای چشم انسان دشوار می‌کند.[۲] شبیه سازی دیجیتال را می‌توان به شبیه سازی سمعی و بصری (AV)، حافظه، شخصیت و رفتار مصرف‌کننده طبقه‌بندی کرد.[۳]

تروبی و براون اصطلاح «کلون فکری دیجیتال» را برای اشاره به تکامل شبیه‌سازی دیجیتال به یک شبیه‌سازی دیجیتال شخصی‌سازی شده پیشرفته‌تر ابداع کردند که شامل «نمونه‌ای از همه داده‌ها و رفتارهای شناخته شده در یک فرد زنده خاص است که در زمان واقعی آن‌ها را ضبط می‌کند.[۴]

شبیه سازی دیجیتال ابتدا در صنعت سرگرمی رایج شد. ایده کلون‌های دیجیتال از شرکت‌های فیلم سازی سرچشمه گرفته است که بازیگران مجازی بازیگران مرده را ایجاد می‌کنند. هنگامی که بازیگران در طول تولید فیلم می‌میرند، یک کلون دیجیتالی از بازیگر می‌تواند با استفاده از فیلم‌های گذشته، عکس‌ها و صداهای ضبط شده برای تقلید از شخص واقعی به منظور ادامه تولید فیلم ساخته شود.[۵]

هوش مصنوعی مدرن، امکان ایجاد دیپ فیک را فراهم کرده است. این شامل دستکاری یک ویدیو تا جایی است که شخصی که در ویدیو به تصویر کشیده می‌شود در حال گفتن یا انجام کارهایی است که ممکن است با آن موافقت نکرده باشد.[۶] در آوریل ۲۰۱۸، بازفید یک ویدیوی دیپ فیک از جردن پیل منتشر کرد، که برای به تصویر کشیدن رئیس‌جمهور سابق، باراک اوباما، دستکاری شده بود، در حالی که اظهاراتی را که قبلاً در انظار عمومی انجام نداده بود برای هشدار دادن به مردم در برابر خطرات احتمالی دیپ فیک ارائه می‌کرد.[۷]

تکنولوژی

ویرایش

پلتفرم‌های آواتار هوشمند (IAP)

ویرایش

پلتفرم آواتار هوشمند (IAP) را می‌توان به عنوان یک پلتفرم آنلاین که توسط هوش مصنوعی پشتیبانی می‌شود تعریف کرد که به فرد اجازه می‌دهد یک کلون از خود ایجاد کند.[۸] فرد باید شبیه سازی خود را آموزش دهد تا با تغذیه الگوریتم صداهای ضبط شده و ویدیوهای متعدد از خود عمل کند و مانند خودش صحبت کند.

دیپ فیک

ویرایش

همان‌طور که توضیح داده شد، دیپ فیکس نوعی دستکاری ویدیویی است که در آن می‌توان افراد حاضر را با ارائه تصاویر مختلف از یک شخص خاص که می‌خواهند تغییر داد. علاوه بر این، می‌توان صدا و کلماتی را که فرد در ویدیو می‌گوید، با ارسال یک سری صداهای ضبط شده از شخص جدید به مدت حدود یک یا دو دقیقه تغییر داد. در سال ۲۰۱۸ اپلیکیشن جدیدی به نام FakeApp منتشر شد که به عموم مردم این امکان را می‌دهد تا به راحتی به این فناوری برای ساخت ویدیو دسترسی داشته باشند. این برنامه همچنین برای ایجاد ویدیو بازفید از باراک اوباما، رئیس‌جمهور سابق، استفاده شد.[۹][۱۰] با استفاده از دیپ فیک، صنایع می‌توانند هزینه استخدام بازیگران یا مدل‌ها برای فیلم‌ها و تبلیغات را با ساختن فیلم‌ها و فیلم‌های مؤثر با هزینه کم، تنها با جمع‌آوری مجموعه ای از عکس‌ها و ضبط‌های صوتی با رضایت فرد، کاهش دهند.[۱۱]

شبیه سازی صدا

ویرایش

شبیه‌سازی صدا موردی از روش‌های دیپ‌فیک صوتی است که از هوش مصنوعی برای تولید یک کلون از صدای افراد استفاده می‌کند. شبیه سازی صدا شامل الگوریتم یادگیری عمیق است که صدای ضبط شده یک فرد را می‌گیرد و می‌تواند چنین صدایی را تا حدی ترکیب کند که بتواند صادقانه صدای انسان را با دقت بسیار زیاد لحن و شباهت تکرار کند.[۱۲]

منابع

ویرایش
  1. Floridi, Luciano (2018). "Artificial Intelligence, Deepfakes and a Future of Ectypes". Philosophy & Technology. 31 (3): 317–321. doi:10.1007/s13347-018-0325-3.
  2. Borel, Brooke (2018). "Clicks, Lies and Videotape". Scientific American. 319 (4): 38–43. Bibcode:2018SciAm.319d..38B. doi:10.1038/scientificamerican1018-38. PMID 30273328. S2CID 52902634.
  3. "AI Voice Changer". CryptoAIQ - AI & Crypto Trends, Tools, and Reviews (به انگلیسی). 2024-10-08. Retrieved 2024-11-18.
  4. Truby, Jon; Brown, Rafael (2021). "Human digital thought clones: the Holy Grail of artificial intelligence for big data". Information and Communication Technology Law. 30 (2): 140–168. doi:10.1080/13600834.2020.1850174. hdl:10576/17266. S2CID 229442428.   Text was copied from this source, which is available under a Creative Commons Attribution 4.0 International License.
  5. Beard, Joseph (2001). "CLONES, BONES AND TWILIGHT ZONES: Protecting the Digital Persona of the Quick, the Dead and the Imaginary". Berkeley Technology Law Journal. 16 (3): 1165–1271. JSTOR 24116971.
  6. Allen, Anita (2016). "Protecting One's Own Privacy In a Big Data Economy". Harvard Law Review. 130 (2): 71–86.
  7. Silverman, Craig (April 2018). "How To Spot A Deepfake Like The Barack Obama–Jordan Peele Video". Buzzfeed.
  8. Meese, James (2015). "Posthumous Personhood and the Affordances of Digital Media". Mortality. 20 (4): 408–420. doi:10.1080/13576275.2015.1083724. hdl:10453/69288. S2CID 147550696.
  9. Silverman, Craig (April 2018). "How To Spot A Deepfake Like The Barack Obama–Jordan Peele Video". Buzzfeed.
  10. S. Agarwal, H. Farid, Y. Gu, M. He, K. Nagano, and H. Li, “Protecting world leaders against deep fakes,” in The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops, June 2019.
  11. Chesney, Robert (2018). "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security" (PDF). SSRN Electronic Journal. 26 (1): 1–58.
  12. "Everything You Need To Know About Deepfake Voice". Veritone (به انگلیسی). 2021-10-01. Retrieved 2022-06-30.