2024-04-29@12:36:44 GMT
۱۹ نتیجه - (۰.۰۰۱ ثانیه)
جدیدترینهای «ویدیوهای جعلی»:
بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
ایتنا - نهاد مستقلی که نحوه تعدیل محتوای آنلاین توسط صاحب فیسبوک را بررسی می کند، اعلام کرد که این شرکت باید به جای حذف پست های جعلی، آنها را برچسب گذاری کند. به گفته این نهاد، متا حق داشت که ویدیوی جعلی جو بایدن، رئیس جمهور ایالات متحده را حذف نکند، چون این ویدئو سیاست رسانهای این رسانه درباره دستکاری یک ویدیو را نقض نکرده بود. با این حال هیات نظارت این نهاد مستقل اعلام کرد که این سیاست نامنسجم است و باید پیش از اینکه انتخابات ریاست جمهوری آمریکا آغاز میشود، گسترش یابد. یکی از سخنگویان متا در این راستا گفت که در حال بازبینی این دستورالعمل است. متا گفت: «ما طبق آییننامه ظرف ۶۰ روز به...
ایتنا - ویدیوهای جعلی پدیده جدیدی نیستند، اما پیشرفت تکنولوژی آنها را کاملاً پیشرفته کرده است. این روزها و با توجه به پیشرفت فنون تصویربرداری و تصویر سازی، تولید ویدئو کلیپهای جعلی نیز افزایش یافته است. در این گزارش مجموعه نکاتی که باید در مورد ویدیوهای جعلی بدانید، معرفی شده است: ویدیوهای جعلی چیست؟ ویدیوهای جعلی ویدئوهایی هستند که با استفاده از تکنیکهای هوش مصنوعی (AI) برای تبدیل تصویر یا صدای یک فرد به تصویر یا صدای شخص دیگری ایجاد میشوند و به نظر میرسد که او چیزهایی را گفته یا انجام داده است که هرگز نگفته یا انجام نداده است. ویدئوهای جعلی چگونه ساخته میشوند؟ ویدیوهای جعلی با استفاده از ترکیبی از شبکههای رمزگذاری و رمزگشایی...
قابلیت جدید توییتر سبب افزایش انتشار اخبار جعلی و خشونت آمیز مانند شکنجه حیوانات یا خشونت پلیس و ... شده است. موضوعی که قوانین داخلی توییتر مبنی بر مقابله با انتشار محتوای خشونت آمیز را بیش از پیش زیر سوال میبرد. گروه علمی و فناوری خبرگزاری برنا؛ انتشار یک پست توسط مالک توییتر درباره امکان جدید این سکو که عملکردی مشابه قابلیت “سوایپ برای نمایش ویدیوهای بیشتر” تیک تاک دارد، سبب جلب توجه برخی کاربران این میکروبلاگ آمریکایی به امکان جدید شد. بعد از آن بود که تعداد زیادی از کاربران توییتر گزارش کردند که استفاده از ویژگی جدید این میکروبلاگ آمریکایی سبب شده است تا ویدیوهای خشونتآمیز بدون هیچ گونه هشدار برای آنها به نمایش گذاشته شود. گزارشها نشان...
آفتابنیوز : «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر روی عکسها تشریح کرد. «deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از هنرپیشه های مشهور هالیوود را در...
«deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» برای تعدادی از هنرپیشه های مشهور هالیوود مورد استفاده قرار گرفت و ویدئوهایی خلق شده بود که وجود خارجی نداشت. به گزارش مشرق، «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر...
کمپانی فیسبوک در راستای افزایش امنیت پلتفرم خود قوانین جدیدی را به اجرا در آورد کرد که استفاده از ویدیوهای دیپ فیک یا جعل عمیق را در این شبکه اجتماعی ممنوع میکنند. به گزارش وبسایت خبری تحلیلی engadget، سیاست جدید فیسبوک در رابطه با ممنوعیت انتشار دیپ فیک در این شبکه اجتماعی ویدیوهایی را هدف قرار داده است که با استفاده از هوش مصنوعی یا یادگیری ماشینی بهگونهای ویرایش شدهاند که کاربر عادی نمیتواند جعلی یا واقعی بودن آن را تشخیص بدهد. گزارشهای بهدستآمده از واشنگتنپست حاکی از آن است که فیسبوک این قوانین را قبل از انتخابات ریاست جمهوری سال 2020 ارائه کرده است تا از این طریق بتواند از انتشار اطلاعات غلط در این شبکه اجتماعی جلوگیری کند.با این حال فیسبوک نمیتوانند بهصورت واقعی...
وزارت فضای مجازی چین قانونی وضع کرده که در آن هر تولید کننده محتوای صوتی و ویدیویی موظف است در صورت جعلی بودن محتوا، آن را علنا اعلام کند. بر اساس قانون جدید که از یکم ژانویه سال جدید میلادی اجرا میشود، هر گونه محتوای تولید شده با هوش مصنوعی یا واقعیت افزوده که تکنولوژی دیپ فیک داشته باشد، باید به صورت واضح آن را اعلام کرده باشد. قانون جدید که مستقیما از سمت وزارت فضای مجازی چین (CAC) به پلتفرمهای ویدیویی و صوتی این کشور ابلاغ شده، آنها را موظف کرده تا اگر ویدیو و صوتی تولید میکنند، جعلی یا موثق بودن آن را حتما اعلام کنند. در غیر این صورت اقدام آنها جرم حساب میشود. استفاده از هوش...
به گزارش اقتصادآنلاین به نقل از تعادل؛ در وبسایت Csoonline آمده که دیپفیک فیلمها یا صداهای ضبطشده جعلی است که بسیار شبیه به واقعیت به نظر میرسد و امروز هرکسی میتواند در اوقات فراغت خود نرمافزارهای دیپفیک را دانلود کرده و ویدیوهای جعلی متقاعدکنندهای را بسازد. دیپ فیک از دو عبارت «دیپلرنینگ» و «فیک» تشکیل شده است. در این تکنولوژی یک هوش مصنوعی نرمافزاری با کمک الگوریتمهای ترکیبی پردازش صدا و تصویر، ویدیویی را تولید میکند. هوش مصنوعی میتواند صورت یک سوژه (فرد اصلی) را روی چهره سوژهای دیگر (فرد هدف) کپی کند. در حالت پیشرفتهتر، این تکنولوژی میتواند یک مدل جدید بر اساس حرکات صورت شخص اصلی درست کرده و آن را روی شخص هدف قرار دهد. این تکنولوژی قادر...
هر یک از متخصصان و کارشناسان مشکلات مختلف فناوری برای انتخابات ریاست جمهوری آمریکا را مورد توجه قرار دادند و با این وجود تمامی آنها روی یک مشکل واحد که این بار گریبانگیر نامزدها میشود اتفاق نظر دارند: فیلمهای ویدیویی گمراهکننده و جعلی. میثم لطفی خبرنگار با نزدیک شدن به انتخابات 2020 ایالات متحده، تعداد زیادی از رهبران سیاسی، نامزدهای ریاست جمهوری و روسای امنیتی و اطلاعاتی این کشور نگرانیهای خود را در مورد امنیت سایبری و آنچه که از جانب حوزه فناوری به عنوان تهدید برای این دور از انتخابات بیان میشود، ابراز کردند. هر یک از متخصصان و کارشناسان مشکلات مختلف فناوری برای انتخابات ریاست جمهوری آمریکا را مورد توجه قرار دادند و با این وجود...
سخنگوی عملیات مشترک عراق با انتشار بیانیه ای هر گونه بدرفتاری با مردم مناطق آزاد شده توسط نیروهای ارتش یا بسیج مردمی این کشور را تکذیب کرد.
سخنگوی عملیات مشترک عراق با انتشار بیانیه ای هر گونه بدرفتاری با مردم مناطق آزاد شده توسط نیروهای ارتش یا بسیج مردمی این کشور را تکذیب کرد.
پس از تحقیق و بررسی دقیق مشخص شده است که این ویدیوها ساختگی بوده است. این ویدیوها در اماکن نامشخص فیلمبرداری شده و اشخاصی که یونیفورم ارتش را به تن...