تکنالوژی تازهای رویکار آمده است که با آن میتوان ویدیوهای افراد واقعی را جعلی ساخت و حرف هایی از زبان آنان جعل کرد که هرگز آن را نگفته اند.
این تکنالوژی که به نام Deepfakes یا "دروغهای عمیق" یاد می شودبا استفاده از روشهای نقشه برداری صورت و هوش مصنوعی، ویدیوهای افراد واقعی را تولید میکند.
اندرو گراتو، کارمند مرکز جهانی امنیت و تجارت، می گوید که با استفاده از این تکنالوژی ویدیوهای افراد را طوری می توان تهیه کرد تا آن چیزی را کاربر این تکنالوژی می خواهد، فرد مورد نظر در ویدیو بیان کند.
ویدیوها در این تکنالوژی از مجموعۀ تصاویر و صدای فرد مورد نظر که به الگاریتم کمپیوتر داده میشود، تولید میشود. سپس برنامۀ ویژۀ کمپیوتری چگونگی حرکات چهره و طرز صحبت کردن و طنین آواز فرد را تقلید میکند.
آقای گراتو میگوید این تکنالوژی و بازده آن بدون کاستی نیست، اما به گفتۀ وی در چند سال آینده شاید به حدی پیشرفت کند که تفکیک میان ویدیوهای اصلی و ویدیوهای جعلی تولید شده در این تکنالوژی مشکل شود.
قانونگذاران امریکایی نگران اند که این تکنالوژی ابزار جدیدی در "جنگ معلومات غلط" خواهد بود که به گفتۀ آنان بر ضد ایالات متحده و دیگر دیموکراسی های غربی به کار برده خواهد شد. به گونۀ مثال، امنیت ملی کشورها را تهدید کرده و برای دستکاری در انتخابات به کار بسته شود.
مارکو روبیو، سناتور جمهوریخواه و عضو کمیته استخبارات مجلس سنای ایالات متحده، میگوید که تا کنون از این تکنالوژی برای لطمه وارد کردن بر هنرپیشه ها و چهرههای مشهور و یا هم برای طنز و سرگرمی کار گرفته شده است، اما وی نگران است که کشورهای متخاصم می توانند از آن برای تخریب امریکا استفاده کنند.
این تکنالوژی تا هنوز ابتدایی است و ویدیوهای ساخته شده توسط آن را میتوان با اندکی دقت شناسایی و تفکیک کرد، اما نگرانی این است که اگر روزی این تکنالوژی در حدی برسد که دیگر تفاوت میان ویدیوی جعلی و اصلی ناممکن شود، مشکلات جدی را خلق خواهد کرد.