Web Analytics Made Easy - Statcounter
2024-04-29@15:12:15 GMT
۱۲۴ نتیجه - (۰.۰۰۲ ثانیه)

جدیدترین‌های «جعل عمیق»:

بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
    خبرگزاری علم و فناوری آنا؛ ویدئو‌ها یا تصاویر جعل عمیق (دیپ فیک) با استفاده از هوش مصنوعی ساخته می‌شوند و گاهی آنقدر واقعی به نظر می‌رسند که تشخیص آنها از واقعیت دشوار است. این فناوری بار‌ها مشکل‌ساز شده و از آن برای انتشار اخبار و اطلاعات نادرست و فریب مردم استفاده کرده‌اند. با پیشرفت فناوری، تشخیص محتوای جعلی هر روز دشوارتر می‌شود و کارشناسان حوزه فناوری در تلاش هستند تا راه‌هایی برای شناسایی و پیشگیری از آسیب‌های جعل عمیق پیدا کنند. به تازگی عکسی جعلی از یک زن مسن در شبکه اجتماعی فیسبوک منتشر شده است که مقابل کیک تولد ۱۲۲ سالگی خود نشسته و شرح عکس چنین است: «من از پنج سالگی پختن کیک را آغاز کردم و می‌خواهم همچنان...
     این توصیه بخشی از مجموعه دستورالعمل‌هایی است که کمیسیون اروپا آن را در قالب قانون تعدیل محتوای فضای مجازی برای غول‌های دیجیتال منتشر کرده تا آنها با خطراتی که انتخابات را تهدید می‌کند، از انتشار جمله اخبار نادرست، مقابله کنند. تعدیل محتوا عبارت از شناسایی محتویات همرسان شده در فضای مجازی و کامنت‌های کاربران است به نحوی که شرکت پیام‌رسان بتواند محتوای مضر و آسیب‌رساننده را پیدا کرده و مثلا برای آن برچسب هشدار بگذارد. نهاد اجرایی اتحادیه اروپا مجموعه‌ای از اقدامات را برای کنترل شرکت‌های بزرگ فناوری مجازی، به ویژه در مورد تعدیل محتوا، به اجرا گذاشته است. بزرگترین ابزار اروپا در این زمینه قانون خدمات دیجیتال است که بر اساس آن این بلوک ۲۲ بستر دیجیتال از جمله...
    ایتنا - در آستانه برگزاری انتخابات پارلمان اروپا در ماه ژوئن آینده، اتحادیه اروپا از شرکت‌های بزرگ فناوری دیجیتال از جمله فیس‌بوک و تیک‌تاک خواست تا محتویات جعل عمیق (دیپ‌فیک) ساخته شده با هوش مصنوعی را در فضای مجازی شناسایی کرده و هشدار دهند. این توصیه بخشی از مجموعه‌ دستورالعمل‌هایی است که کمیسیون اروپا آن را در قالب قانون تعدیل محتوای فضای مجازی برای غول‌های دیجیتال منتشر کرده تا آنها با خطراتی که انتخابات را تهدید می‌کند، از انتشار جمله اخبار نادرست، مقابله کنند. تعدیل محتوا عبارت از شناسایی محتویات همرسان شده در فضای مجازی و کامنت‌های کاربران است به نحوی که شرکت پیام‌رسان بتواند محتوای مضر و آسیب‌رساننده را پیدا کرده و مثلا برای آن برچسب هشدار...
    به گزارش خبرگزاری صداوسیما، ویدئوها و تصاویر تولیدشده با هوش مصنوعی با اهداف سیاسی در سالی پر از انتخابات، می‌توانند نتایج زیان‌باری به همراه داشته باشند. در همین حال برزیل تلاش دارد پیش از برگزاری انتخابات، برای این فناوری قانون‌گذاری کند. در کشوری با ۲۰۳ میلیون جمعیت که میزان تلفن‌های همراه از جمعیت پیشی می‌گیرد، قانون‌گذاران برزیل تصمیم هفته گذشته استفاده از فناوری جمع عمیق را ممنوع کردند و برای استفاده از این فناوری با اهداف انتخاباتی، خط‌مشی‌هایی تعیین کردند. توسعه سریع هوش مصنوعی که با عرضه چت جی پی تی در سال ۲۰۲۲ سرعت گرفته، چشم‌انداز جهان آنلاین را تغییر داده و همزمان باعث ترس و نگرانی در مورد آینده شده. اما در کشوری که پیش از این هم...
    ایتنا - دیپ‌فیک‌های هوش مصنوعی اغلب برای ایجاد آسیب استفاده می‌شوند، اما روش‌های موجود طراحی شده برای کاهش یا جلوگیری از تقلب باید برای محافظت در برابر این فناوری کافی باشد. در عصر دیجیتالی که در آن زندگی می‌کنیم، مرز بین واقعیت و فانتزی مبهم شده است. ظهور فناوری جعل عمیق (دیپ فیک) نگرانی‌های عمده و بحث های جنجالی را در مورد صحت محتوای بصری ایجاد کرده است.  همانقدر که تصاویر دستکاری شده پیچیده‌تر می‌شوند، درک فناوری زیربنایی و تاثیر بالقوه آن ضروری‌تر می‌شود، به خصوص که ظهور جعل عمیق پیامدهای زیادی برای جنبه‌های مختلف جامعه از جمله سیاست، روزنامه نگاری، سرگرمی و حریم خصوصی دارد.  با کنترل‌های صحیح و هوشیار بودن نسبت به خطرات احتمالی...
    به گزارش خبرگزاری علم و فناوری آنا به نقل از رویترز، کارشناسان هوش مصنوعی و مدیران صنایع با امضای نامه‌ای سرگشاده خواستار مقررات بیشتر در مورد جعل عمیق (دیپ فیک) شده و خطرات احتمالی آن را در این نامه متذکر شده‌اند. این گروه از کارشناسان با همراهی اندرو کریچ (Andrew Critch)، متخصص هوش مصنوعی از دانشگاه برکلی در نامه سرگشاده خود نوشتند: «امروزه، در جعل عمیق اغلب از تصاویر جنسی، تقلبی یا اطلاعات نادرست سیاسی استفاده می‌شود و چون هوش مصنوعی به سرعت در حال پیشرفت است ساخت جعل عمیق را بسیار آسان‌تر می‌کند.» در این نامه با عنوان «زنجیره تأمین جعل عمیق را بر هم بزنید»، توصیه‌هایی در مورد شیوه قانون‌گذاری برای جعل عمیق ارائه شده است، از جمله...
    جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی به‌ویژه برای افراد سرشناس به دردسری جدی تبدیل شده است. به گزارش آنا؛ «اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئو‌ها و صدا‌های جعلی ساخته‌شده با هوش مصنوعی که به «جعل عمیق» (دیپ فیک) شناخته می‌شوند، موجی از تهدیدات جدید به راه انداخت و در مواردی آسیب‌هایی را در ابعاد مختلف ملی یا جهانی به بار آورد. گزارش پیش رو که از نظر می‌گذرانید برگردان گزارش ساینس در خصوص جعل عمیق است. در محتوا‌های جعل عمیق از الگوریتم‌هایی استفاده می‌شود که با استفاده از تصویر یا صدای افراد نسخه‌ای جعلی می‌سازند و صدایی را تولید می‌کنند که هرگز...
    ایتنا - همانطور که فناوری دیپ فیک (جعل عمیق)  پیشرفت کرده است، ابزارها و تکنیک‌های طراحی شده برای شناسایی آنها نیز پیشرفت کرده است.  در عصر دیجیتال، دیپ فیک به عنوان یک تهدید بزرگ برای اصالت محتوای آنلاین شناخته می‌شود. ویدیوهای تولید شده با هوش مصنوعی می‌توانند به طور قانع کننده‌ای از افراد حقیقی تقلید کنند. تمایز واقعیت از دروغ را چنان دشوار می‌کند که می‌تواند همه چیز، از روابط شخصی گرفته تا انتخابات سیاسی را تحت‌الشعاع قرار دهد. خوشبختانه، همانطور که فناوری دیپ فیک (جعل عمیق)  پیشرفت کرده است، ابزارها و تکنیک‌های طراحی شده برای شناسایی آنها نیز پیشرفت کرده است. بنابراین، دراین مطلب پنج بهترین ابزار و تکنیک‌های تشخیص دیپ‌فیک را که امروزه در دسترس هستند،...
    به گزارش خبرآنلاین، یک کارمند مالی که در یک شرکت چند ملیتی در هنگ‌ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپ‌فیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. به نقل از یورونیوز،‌ پلیس هنگ‌ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر مالی» با کارمند تماس برقرار کرده و صحنه ویدئوکنفرانس را طوری چیده بودند که گویی چند نفر دیگر از کارکنان شرکت نیز در جلسه حضور دارند. در حالی که تمامی افراد در جلسه از طریق فناوری جعل عمیق درست شده بودند و واقعی نبودند. به گفته مقامات پلیس شخص کارمند در ابتدا به پیامی که ظاهراً از طرف مدیر ارشد مالی...
    ایتنا - یک کارمند مالی که در یک شرکت چند ملیتی در هنگ‌ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپ‌فیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. پلیس هنگ‌ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر مالی» با کارمند تماس برقرار کرده و صحنه ویدئوکنفرانس را طوری چیده بودند که گویی چند نفر دیگر از کارکنان شرکت نیز در جلسه حضور دارند. در حالی که تمامی افراد در جلسه از طریق فناوری جعل عمیق درست شده بودند و واقعی نبودند. به گفته مقامات پلیس شخص کارمند در ابتدا به پیامی که ظاهراً از طرف مدیر ارشد مالی شرکت، مستقر در...
    ایتنا - در مورد تماس تلفنی که احتمالا با استفاده از هوش مصنوعی صدای جو بایدن را شبیه‌سازی کرده بود هنوز جزئیات زیادی نمی‌دانیم. این تماس روز ۲۱ ژانویه دو روز پیش از انتخابات مقدماتی گرفته شد، و سعی داشت دموکرات‌‌ها را از شرکت در انتخابات منصرف کند. مشخص نیست چه کسی پشت این تماس بوده است، با استفاده از چه نرم‌افزاری درست شده و با چه تعداد از رای‌دهندگان تماس گرفته شده بود. دفتر دادستانی کل نیوهمپشایر در حال تحقیق در مورد این موضوع است. اما این اتفاق یک موضوع را روشن کرد: نهادهای ناظر پیش از انتخابات باید وارد عمل شوند و در مورد جعل عمیق اقدامی صورت دهند. تاثیر جعل عمیق بر جامعه‌، و...
    زی‌سان: در مورد تماس تلفنی که احتمالا با استفاده از هوش مصنوعی صدای جو بایدن را شبیه‌سازی کرده بود هنوز جزئیات زیادی نمی‌دانیم. به گزارش زی‌سان به نقل از پولتیکو، این تماس روز ۲۱ ژانویه دو روز پیش از انتخابات مقدماتی گرفته شد، و سعی داشت دموکرات‌ها را از شرکت در انتخابات منصرف کند. مشخص نیست چه کسی پشت این تماس بوده است، با استفاده از چه نرم‌افزاری درست شده و با چه تعداد از رای‌دهندگان تماس گرفته شده بود. دفتر دادستانی کل نیوهمپشایر در حال تحقیق در مورد این موضوع است. اما این اتفاق یک موضوع را روشن کرد: نهاد‌های ناظر پیش از انتخابات باید وارد عمل شوند و در مورد جعل عمیق اقدامی صورت دهند. تاثیر جعل عمیق...
    ایتنا - آمریکا قصد دارد انتشار و به‌اشتراک‌گذاری عکس‌های برهنه افراد را که به صورت دیجیتال دستکاری‌ شده‌اند به یک جرم فدرال تبدیل کند. جوزف مورل نماینده دموکرات ایالت نیویورک روز سه‌شنبه بار دیگر «لایحه جلوگیری از جعل عمیق تصاویر نقاط خصوصی بدن» را ارائه کرد. این لایحه به‌اشتراک‌گذاری غیرمجاز عکس‌های برهنه‌ای را که با ابزارهای دیجیتال دستکاری‌ شده‌اند ممنوع می‌کند. این لایحه قبلا ارائه شده بود، ولی حالا نماینده جمهوری‌خواه تام کین از نیوجرسی هم به عنوان حامی مشترک به آن پیوسته است. علاوه بر جرم‌انگاری اشتراک‌گذاری این تصاویر، لایحه پیشنهادی امکان طرح دعوای حقوقی علیه مجرمان را هم به قربانیان می‌دهد. مورل در بیانیه خود گفت: «منتظر حادثه دسته‌جمعی بعدی نمانیم تا خبرساز شود....
    بالاخره سیاست با همه بی‌پدر و مادری، نامردی، کثیف بودن و با وجود همه حرف‌هایی که پشت سرش می‌زنند، لابد خوبی‌هایی هم دارد. حداقلش این است که گاهی ممکن است برای مصالح جامعه بشری یکی دو قدم بردارد! یک نمونه‌ آن، ماجرای «جعل عمیق» یا همان دیپ‌فیک که ظاهراً آشش جوری شور شده که اهالی دنیای صنعت و فناوری، علم اخلاق، جامعه‌شناسان و حتی سیاست‌بازان و سیاست‌ورزان هم صدایشان بابت این دسته‌گل هوش مصنوعی و قرن۲۱ درآمده است. زلف این، دُم آن اگر فکر می‌کنید داریم بی‌دلیل زلف ماجرایی مثل «جعل عمیق» و هوش مصنوعی را به دُمِ سیاست گره می‌زنیم، سخت در اشتباهید. منتها حرف زدن از دلیل این کار بماند برای اواخر مطلب! اول باید ببینیم اصل...
    ایتنا - برخی از کارشناسان بر این باورند که در سال ۲۰۲۴ پیشرفت‌های هراس‌انگیزی را از هوش مصنوعی شاهد خواهیم بود. از تولید محتوای جعلی و ساختگی تا بسیاری توانایی‌های دیگر از جمله کاربردهای عملی چت‌جی‌پی‌تی. سال ۲۰۲۳ سالی مهم در تاریخ هوش مصنوعی بود. اما این تنها آغاز ماجرا بود. برخی از کارشناسان بر این باورند که در سال ۲۰۲۴ پیشرفت‌های هراس‌انگیزی را از هوش مصنوعی شاهد خواهیم بود. از تولید محتوای جعلی و ساختگی تا بسیاری توانایی‌های دیگر از جمله کاربردهای عملی چت‌جی‌پی‌تی. پدیده هوش مصنوعی، پدیده‌ جدیدی نیست و از دهه‌ها پیش تاکنون وجود داشته است. اما آنچه که با گذشته متفاوت است این است که اکنون مردم عادی نیز با استفاده از چت‌جی‌پی‌تی شرکت...
    در حالی که تصاویر جعلی روز به روز متقاعد کننده‌تر و گسترده‌تر می‌شوند، سازندگان دوربین‌ها با فناوری جدیدی که می‌تواند صحت عکس‌ها را تأیید کند، با این مشکل مقابله می‌کنند. نیکون، سونی و کانن در حال کار بر روی تعبیه یک امضای دیجیتال در دوربین‌های خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل خواهد کرد. به گزارش خبرآنلاین، امضا‌های دیجیتال حاوی اطلاعاتی مانند تاریخ، زمان، مکان و عکاس تصویر هستند و در برابر دستکاری مقاوم خواهند بود. این فناوری به عکاسان و سایر متخصصانی که نیاز دارند از اعتبار کار خود اطمینان حاصل کنند، کمک می‌کند. نیکون این ویژگی را در دوربین‌های بدون آینه خود ارائه می‌کند، در حالی که سونی و کانن نیز آن...
    شرکت‌های کانن، نیکون و سونی در حال کار بر روی تعبیه یک امضای دیجیتالی در دوربین‌های خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل می‌کند. به گزارش ایسنا و به نقل از آی‌ای، در حالی که تصاویر جعلی روز به روز متقاعد کننده‌تر و گسترده‌تر می‌شوند، سازندگان دوربین‌ها با فناوری جدیدی که می‌تواند صحت عکس‌ها را تأیید کند، با این مشکل مقابله می‌کنند. نیکون، سونی و کانن در حال کار بر روی تعبیه یک امضای دیجیتال در دوربین‌های خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل خواهد کرد. امضاهای دیجیتال حاوی اطلاعاتی مانند تاریخ، زمان، مکان و عکاس تصویر هستند و در برابر دستکاری مقاوم خواهند بود. این فناوری...
    یکی از توانایی‌های سیستم‌های هوش مصنوعی جعل عمیق توانایی شبیه‌سازی صدای افراد، حتی بر اساس یک فایل ضبط شده کوتاه از صدای اصلی است که می‌تواند برای مقاصد شرورانه مورد سواستفاده قرار بگیرد. با این حال، یک نرم‌افزار جدید به نام ضدجعل(AntiFake) می‌تواند به جلوگیری از وقوع آن کمک کند. به گزارش ایران اکونومیست و به نقل از نیواطلس، در سایر قابلیت‌های هوش مصنوعی، از نسخه‌های جعلی صدای افراد به همراه ویدیوهای جعلی می‌توان به گونه‌ای استفاده کرد که به نظر برسد گویی یک سیاستمدار یا شخصیت مشهور چیزی را گفته که هرگز در واقعیت نگفته‌ است. علاوه بر این مواردی وجود داشته که افراد تماس‌های تلفنی دریافت کرده‌اند که در آن صدای جعلی یکی از دوستان یا اعضای خانواده...
    فیلم‌ها و تصاویر فریبنده ایجاد شده توسط هوش مصنوعی می‌تواند انتخابات را تحت تاثیر قرار دهد، باعث سقوط بازارهای سهام شود و شهرت افراد را نابود کند و محققان در حال توسعه روش‌هایی برای محدود کردن آسیب آن هستند. به گزارش ایسنا و به نقل از نیچر، ماه ژوئن سال جاری، در نبرد سیاسی منتهی به انتخابات مقدماتی ریاست جمهوری آمریکا در سال ۲۰۲۴، مجموعه‌ای از تصاویر منتشر شد که نشان می‌داد دونالد ترامپ یکی از مشاوران پزشکی سابق خود، آنتونی فائوچی را در آغوش گرفته است. فائوچی، یک مقام بهداشتی بود که توسط برخی محافظه‌کاران آمریکایی به دلیل ترویج ماسک و واکسن در طول همه‌گیری کووید-۱۹ مورد انتقاد قرار گرفته بود. هانی فرید(Hany Farid)، دانشمند رایانه در دانشگاه...
    گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا، فناوری‌های مدرن از هوش مصنوعی گرفته تا ارتباطات بی‌سیم فوق سریع، در سال‌های اخیر کار و زندگی مردم را متحول کرده‌اند. ضمن لذت بردن از راحتی این فناوری‌ها باید به این نکته نیز توجه داشت که اگر به دست افراد نادرستی بیفتند، دردسر‌های زیادی پیش خواهد آمد. استیو وزنیاک، یکی از بنیان گذاران اپل، چندی پیش هشدار داد فناوری هوش مصنوعی ممکن است شناسایی کلاهبرداری‌ها و اطلاعات غلط را سخت‌تر کند. مقامات در حال مبارزه با کلاهبرداران آنلاین و گروه‌های تبهکار پشت سر آن‌ها هستند، با این حال کلاهبرداری‌ها همچنان به قوت خود ادامه دارد. در ادامه به برخی از رایج‌ترین تله‌های آنلاین می‌پردازیم که با کمک فناوری‌هایی مانند هوش...
    مدیر عامل شرکت گوگل در مورد ویدئوهای «دیپ فیک»(جعل عمیق) هوش مصنوعی هشدار داده و گفته که می‌تواند آسیب‌های زیادی ایجاد کند و گوگل عمدا قابلیت‌های عمومی هوش مصنوعی بارد را محدود می‌کند. به گزارش ایران اکونومیست و به نقل از فاکس‌بیزنس،  ساندار پیچای(Sundar Pichai)، مدیر عامل گوگل، زنگ خطر را در مورد خطرات استفاده از هوش مصنوعی برای ایجاد ویدیوهای جعلی از چهره‌های شناخته شده به صدا درآورد. کاری که به گفته او به زودی «آسان» خواهد شد. پیچای این اظهارات را در خلال گفتگو در برنامه «۶۰ دقیقه» CBS بیان کرد و به اسکات پلی(Scott Pelley) مصاحبه کننده‌ی برنامه گفت که گوگل برای جلوگیری از سوء استفاده، محدودیت‌هایی برای هوش مصنوعی بارد(Bard) خود قائل شده است. پیچار به...
    به گزارش سرویس بین الملل خبرگزاری صدا و سیما؛ دولت انگلیس در لایحه امنیت برخط (online) هرگونه انتشار تصاویر و ویدئو‌های ناشی از "جعل عمیق" (deepfake) را که بدون رضایت افراد، آنان را در این تصاویر و فیلم‌های آزار دهنده نشان می‌دهد، ممنوع می‌کند.به گزارش خبرگزاری صدا و سیما از لندن، روزنامه گاردین نوشت در روش "جعل عمیق " با دستکاری‌های دیجیتال، تصویر یا ویدئو‌هایی جعلی و توهین آمیز از افراد تهیه می‌شود و اکنون وزارت دادگستری انگلیس می‌گوید به علت افزایش موارد "جعل عمیق" در سالیان اخیر باید قوانین سخت گیرانه وضع شود تا بازدارنده باشد.این روزنامه نوشت براساس گزارش وزارت دادگستری انگلیس، در یک مورد که افراد با استفاده از "جعل عمیق" لباس‌های یک زن را از تنش در آوردند...
    یک کارشناس امنیت سایبری چهار نگرانی در مورد هوش مصنوعی را عنوان کرده است. این نگرانی‌ها در حالی عنوان می‌شوند که این فناوری همچنان در حال تکامل است. به نقل از روزنامه سان، امروزه هوش مصنوعی می تواند کارهایی مانند نوشتن مقاله، تولید کدهای پیچیده و خلاصه کردن اسناد طولانی را در چند ثانیه انجام دهد. تعداد کمی از بخش‌ها  توانسته‌اند به پیشرفت چشمگیری که در مدت زمان کمی هوش مصنوعی به آن دست یافته برسند.در تنظیمات پیشرفته تر، هوش مصنوعی به ساخت واکسن و محاسبه معادلات پیچیده فیزیک برای دانشمندان کمک می‌کند. این‌ها تنها چند نمونه از شاهکارهای چشمگیر متعددی است که این فناوری تا به امروز انجام داده است. با این حال، مانند همه پیشرفت‌های تکنولوژیکی، مسائل و...
    یکی از دردسر‌هایی که فناوری جعل عمیق برای مردم، به‌ویژه افراد سرشناس، به وجود آورده است، ایجاد تصاویر و فیلم‌های دروغین و گاه مستهجن از آنهاست. متاسفانه این مشکل گسترش پیدا کرده و گریبان افراد عادی را هم گرفته است. به گزارش خبرآنلاین، اخیرا پلیس FBI هشدار داده شکایت‌های متعددی از افراد جامعه دریافت کرده است مبنی بر اینکه مجرمان و کلاهبردار‌های مجازی از چهره‌شان با استفاده از جعل عمیق، تصاویر و فیلم‌های مستهجن ساخته و آن‌ها را تهدید به انتشار این تصاویر جعلی کرده‌اند. این مجرمان معمولا تصاویر جعلی را در رسانه‌های اجتماعی، انجمن‌های عمومی یا وب‌سایت‌های مستهجن منتشر می‌کنند. در فناوری جعل عمیق، می‌توان تصاویری آنقدر واقعی از چهره یک نفر روی بدن یک نفر دیگر ایجاد کرد...
    چندین شبکه رادیو و تلویزیون روسیه پس از هک شدن، سخنان جعلی ولادیمیر پوتین رئیس جمهوری این کشور را پخش کردند که در آن پیغام جعلی، اعلام "وضعیت اضطراری" شده بود. به گزارش مشرق،دیمیتری پسکوف سخنگوی کاخ کرملین به خبرگزاری تاس گفت که رئیس جمهور پوتین هیچ سخنرانی اضطراری رادیو و تلویزیون در روز دوشنبه انجام نداده و ویدئو نمایش داده شده در رسانه‌های اجتماعی، یک نفوذ بوده است. پسکوف ضمن تاکید بر اینکه اوضاع تحت کنترل است و خطر دفع شده، در این خصوص توضیح داد: هیچ سخنرانی وجود نداشت. درست است که در برخی مناطق نفوذ صورت گرفته است. به ویژه، می‌دانم که یک نفوذ در «رادیو میر» و برخی از شبکه‌ها انجام شده است. شرکت بین‌المللی رادیو...
    ایتنا - به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند. به‌تازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکرات‌ها در انتخابات ریاست جمهوری آمریکا، در رسانه‌های اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوری‌خواهان، سخنرانی می‌کند و می‌گوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.» هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوق‌العاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاست‌جمهوری ایالات متحده به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند. ویدیوی هیلاری کلینتون،...
    ایتنا - کارشناسان می‌گویند میلیاردها کاربر آیفون و گوشی‌های اندروید در معرض خطر حملات هوش مصنوعی قرار دارند دارندگان گوشی‌های هوشمند ممکن است در معرض خطر کلاهبرداری و خالی کردن حساب بانکی باشند. این نوع کلاهبرداری‌ها عموما مبتنی بر روش‌های هوش مصنوعی، تقلید صدا، تبلیغات تله‌گذاری (فیشینگ) و همچنین فناوری ساخت تصاویر جعل عمیق (دیپ‌ فیک) اجرا می‌شوند. تقلید صدای هوش مصنوعی تقلید صدا به کمک فناوری هوش مصنوعی مشابه حملات تله‌گذاری است که به منظور تلاش برای کسب اطلاعاتی مانند نام کاربری، گذرواژه، اطلاعات حساب بانکی و مانند آن‌ها از طریق جعل یک وب‌سایت، آدرس ایمیل و مانند آن‌ها صورت می‌گیرد. به گزارش ایتنا و به نقل از ایندیپندنت، در چنین حملاتی، کلاهبرداران ممکن است با...
    به گزارش جام جم آنلاین، یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در مورد خطرات ظهور جعل‌های عمیق واقعی‌تر هشدار داد. نیل ساهوتا، کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت می‌کند، گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است. دیپ فیک‌ها تصویری آینه‌ای از دوقلوهای دیجیتال هستند، به این معنی که بدون اجازه شخص و معمولا برای اهداف مخرب و برای فریب دادن کسی، یک ماکت دیجیتالی از وی ایجاد می‌شود. برخی تصاویر جعل عمیق شده تاکنون چندین بار خبرساز و فراگیر شده‌اند، مانند ویدیویی که نشان می‌داد ولودیمیر زلنسکی رئیس‌جمهور اوکراین به کشورش می‌گوید تسلیم روسیه شوند یا کلیپی از ایلان ماسک که...
    یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در مورد خطرات ظهور جعل‌های عمیق واقعی‌تر هشدار داد. نیل ساهوتا(Neil Sahota) کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت می‌کند، گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است. دیپ فیک‌ها تصویری آینه‌ای از دوقلوهای دیجیتال هستند، به این معنی که بدون اجازه شخص و معمولا برای اهداف مخرب و برای فریب دادن کسی، یک ماکت دیجیتالی از وی ایجاد می‌شود. برخی تصاویر جعل عمیق شده تاکنون چندین بار خبرساز و فراگیر شده‌اند، مانند ویدیویی که نشان می‌داد ولودیمیر زلنسکی رئیس‌جمهور اوکراین به کشورش می‌گوید تسلیم روسیه شوند یا کلیپی از ایلان ماسک که برای تبلیغ سرمایه‌گذاری و...
    ایتنا - بسیاری از هنرمندان دست‌ انسان را یکی از پیچیده‌ترین چیزها برای طراحی در نظر می‌گرفتند باتوجه به اینکه یک تولیدکننده پیشگام تصویر هوش مصنوعی پی‌برد که چگونه تصاویری واقعی از دست ایجاد کند، ممکن است یکی از بزرگ‌ترین نشانه‌های پنهان برای تشخیص یک تصویر جعل عمیق (دیپ‌فیک)، رفع شده باشد. به گزارش ایتنا و به نقل از ایندیپندنت، جدیدترین نسخه «میدجرنی»، که از متن‌های مکتوب ساده تصویر تولید می‌کند، در مقایسه با نسخه‌های پیشین فناوری هوش مصنوعی مولد که معمولا دست‌های انسان را به شکل عجیب و غریب یا با تعداد انگشتان اشتباه به تصویر می‌کشند، پیشرفت قابل‌توجهی را نشان می‌دهد. به گفته سازندگان، میدجرنی وی۵ کیفیت تصویر بسیار بالاتر، خروجی‌های متنوع‌تر، دامنه سبک‌‌شناختی گسترده‌تر،...
    دیپ فیک فناوری پیچیده‌ای است که ویدئو و صوت‌های جعلی با استفاده از هوش مصنوعی تولید می‌کند، مهدی رضا برنا کارشناس هوش مصنوعی اعتقاد دارد که بهترین راه مقابله با این نوع از محتوا استفاده از فناوری یادگیری عمیق است. خبرگزاری برنا- گروه علمی و فناوری؛ دیپ فیک یا جعل عمیق یکی از معضلات جدید بشر در عرصۀ مواجهه با اخبار جعلی است، سازندگان دیپ فیک عموماً با اهداف سیاسی یا جنجال آفرینی برای افراد مشهور دست به تولید این نوع از محتوا می‌زنند. این تکنولوژی البته هنوز فراگیر نشده است اما دور به نظر نمی‌رسد، روزی که جهان شاهد انبوهی از فایل‌های صوتی و تصویری جعلی باشد که سازندگان آن با هدف بر هم زدن آرامش یک کشور یا...
    ایتنا - مقام‌های ایالات متحده در گذشته هشدار داده‌اند که کشورهایی مانند روسیه به دستکاری رسانه‌های اجتماعی متوسل می‌شوند. رهبرانی که بر برخی از محرمانه‌ترین ماموریت‌های ارتش ایالات متحده نظارت دارند، جویای نوع جدید و بی‌سابقه‌ای از جنگ‌افزارند: «جعل‌عمیق»، که یادگیری ماشینی را برای ایجاد ویدیوهای جعلی واقع‌نما به کار می‌گیرد. به گزارش ایتنا و به نقل از ایندیپندنت، طبق سندی تدارکاتی که خبرگزاری اینترسپت کشف کرده است، ستاد فرماندهی عملیات ویژه ایالات متحده (سوکام)، متشکل از نیروهای نخبه تفنگداران دریایی، نیروی زمینی، دریایی و هوایی، جویای ابداع «نسل آینده فناوری «جعل‌عمیق» یا فناوری‌های مشابه آن به منظور تولید پیام و عملیات اثرگذاری به روش‌های غیرسنتی است». سوکام در درخواست‌های تدارکاتی اخیر و در چارچوب عملیات مخفیانه...
    ایتنا - سایتی که به طور مجازی عکس‌ زنان را برهنه می‌کند، در هشت ماه نخست سال ۲۰۲۱، سی‌وهشت میلیون بازدیدکننده داشته است. مردی نزدیک پایه میکروفن نشسته است. اشک چشمانش را پر می‌کند. سرش را دودستی می‌گیرد. می‌گوید: «واقعا شرم‌آور است. زشت است، من شرمنده‌ام.» همسرش پشت سر او اشک‌هایش را با دستمالی مچاله پاک می‌کند. به گزارش ایتنا و به نقل از ایندیپندنت، چند روز قبل، برندون ایوینگ‌ـ‌‌ـ که دنبال‌کننده‌هایش در پلتفرم پخش آنلاین توییچ (Twitch) او را به نام اتریوک (Atrioc) می‌شناسندــ در جریان یک پخش زنده، صفحه‌ مانتیورش را به اشتراک گذاشت. یکی از تب‌های باز قابل‌مشاهده یک سایت پورنو پولی را نشان می‌داد که کارش تولید تصاویر جنسی با هوش مصنوعی یا «جعل‌...
    به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس به نقل از سی ان بی سی، دیپ فیک ها تصاویر یا ویدئوهایی هستند که به صورت مصنوعی تولید یا تغییر یافته اند و با استفاده از نوعی هوش مصنوعی ساخته می شوند. از این فناوری می توان برای تغییر یک ویدیوی موجود استفاده کرد، برای مثال با قرار دادن چهره یک سیاستمدار بر روی یک ویدیوی موجود یا حتی ایجاد سخنرانی جعلی تا دروغ پراکنی در فضای مجازی ساده تر شود. نتیجه این کار انتشار ویدئوهای ساختگی است که به نظر می رسد واقعی هستند اما اینطور نیست. پکن قوانین خود را در این مورد در اوایل سال جاری اعلام کرد و آنها را در دسامبر نهایی کرد. این قوانین...
    طبق یک مطالعه جدید، حملات سایبری مبتنی بر هوش مصنوعی در جعل هویت، تاکتیکی که اغلب در فیشینگ استفاده می‌شود، حرفه‌ای می‌شوند و می‌توانند آسیب‌رسان باشند. به گزارش ایران اکونومیست و به نقل از سایبرنیوز، یک گزارش تحلیلی سایبری جدید هشدار داده است که حملات سایبری فعال هوش مصنوعی که تاکنون کاملاً محدود بوده‌اند، ممکن است در سال‌های آینده تهاجمی‌تر شوند. بر اساس این گزارش، شرکت امنیت سایبری و حریم خصوصی WithSecure مستقر در هلسینکی، آژانس حمل و نقل و ارتباطات فنلاند و آژانس تامین اضطراری ملی فنلاند در این گزارش همکاری کرده‌اند. اندی پاتل پژوهشگر اطلاعاتی شرکت WithSecure می‌گوید: اگرچه محتوای تولید شده توسط هوش مصنوعی برای اهداف مهندسی اجتماعی استفاده شده است، اما تکنیک‌های هوش مصنوعی طراحی شده...
    به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از رویترز، رگولاتور فضای سایبری چین گفته: قوانین جدید این کشور برای ارائه دهندگان محتوا که داده‌های چهره و صدا را تغییر می‌دهند، از 10 ژانویه 2023 (20 دی) اجرایی می‌شود. به نظر می رسد چین سعی دارد سختگیری های بیشتری را برای فناوری جعل عمیق و سرویس های آن اعمال کند. قوانین اداره فضای سایبری چین (CAC) که روز یکشنبه منتشر شد، از افراد در برابر جعل هویت با جعل عمیق بدون رضایت آنها محافظت می‌کند. اداره فضای سایبری چین گفت که این اقدام با هدف محدود کردن خطرات ناشی از فعالیت های ارائه شده توسط چنین پلتفرم هایی که از یادگیری عمیق یا واقعیت مجازی برای تغییر هرگونه...
    به گزارش همشهری آنلاین، با این اقدام، بوریس ویلیس - Walter Bruce Willis که با نقش جان مک‌کلین در فیلم جان سخت - Die Hard به شهرت رسید، به نخستین ستاره بازنشسته هالیوود تبدیل شد که شبیه خود را فروخت تا از آن برای ایجاد یک دوقلو دیجیتال از طریق فناوری جعل عمیق(ویدیوهای دیپ فیک) استفاده شود. دیپ فیک یا جعل عمیق تکنیکی برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است؛ ویدیوی جعلی، ترکیب فیلم‌های موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است. به نوشته تلگراف، ویلیس حق فروش شبیه خود را با شرکت آمریکایی Deepcake امضا کرده است؛ این شرکت می‌تواند نسخه‌های...
    به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس به نقل از نکست وب، پژوهشگران یک راه ساده و شگفت‌آور برای شناسایی تماس‌های ویدیویی جعل عمیق کشف کرده‌اند. تنها کافی است از فرد مظنون بخواهید سرش را به طرفین بچرخاند. این ترفند طی هفته جاری توسط Metaphysic.ai، ابداع شد که یک استارت‌آپ مستقر در لندن است و قصد داشت با سوءاستفاده از شخصیت تام کروز برای تولید ویدئوهای جعل عمیق مقابله کند. این شرکت از DeepFaceLive استفاده کرد که یک برنامه محبوب برای تولید تصاویر جعل عمیق ویدیویی و تبدیل یک داوطلب به افراد مشهور است. بسیاری از چهره ها زمانی که مستقیم به جلو نگاه می کردند، دقیق و مشابه با افراد مورد تقلید بودند. اما هنگامی که چهره...
    ایتنا - دانشمندان می‌گویند که درک نحوه تشخیص جعل عمیق به‌وسیله مغز، به ایجاد الگوریتم‌هایی برای شناسایی آنلاین آن‌ها کمک می‌کند. مطالعه‌ای جدید نشان می‌دهد مغز انسان قادر است به‌طور ناخودآگاه جعل عمیق (دیپ فیک) را تشخیص دهد که ممکن است به تولید ابزاری برای جلوگیری از انتشار اطلاعات نادرست کمک کند. دیپ فیک‌ها، ویدیوها، تصاویر، صدا یا متنی‌اند که معتبر به نظر می‌رسند، اما شبیه‌سازی کامپیوتری‌اند که برای گمراه کردن و تحت‌ تاثیر قرار دادن افکار عمومی طراحی می‌شوند. در این مطالعه که اخیرا در نشریه ویژن ریسرچ منتشر شده، آمده است افرادی سعی کردند جعل عمیق را تشخیص بدهند و با استفاده از اسکن مغزی الکتروآنسفالوگرافی (ئی‌ئی‌جی) ارزیابی شدند. به گفته دانشمندان، ازجمله دانشمندان...
    گوگل، فیس بوک، توییتر و سایر شرکت‌های فناوری باید اقداماتی را برای مقابله با دیپ فیک (جعل عمیق) و حساب‌های دیپ فیک در پلتفرم‌های خود انجام دهند، در غیر این صورت با جریمه سنگین اتحادیه اروپا روبرو خواهند شد. به گزارش ایران اکونومیست، انتظار می‌رود کمیسیون اروپا در راستای مبارزه با جعل عمیق، کد رفتار به‌روزشده درباره اطلاعات نادرست را روز پنجشنبه منتشر کند. این کد رفتار داوطلبانه که در سال ۲۰۱۸ معرفی کرد، اکنون به طرح تنظیم مشترک تبدیل خواهد شد و رگولاتورها و امضاکنندگان این کد، در مسئولیت مربوط به آن سهیم خواهند بود. کد رفتار به‌روزشده به تشریح موارد رفتار فریبکارانه مانند دیپ فیک و حسابهای جعلی پرداخته است که امضاکنندگان، باید با آنها مقابله کنند. دیپ...
    ایتنا - چهره‌های مصنوعی ۷. ۷ برابر قابل‌ اعتمادتر از چهره‌های واقعی و زنان به‌ مراتب قابل‌ اعتمادتر از مردها بودند. یک پژوهش جدید حاکی از آن است که به نظر می‌رسد چهره‌های جعلی ایجاد شده با هوش مصنوعی برای انسان قابل‌ اعتمادتر از صورت‌های واقعی است. این فناوری که به نام «جعل عمیق» شناخته می‌شود، یک روش یادگیری الگوریتمی آموزش کامپیوتر است که در آن از هوش مصنوعی و آموزش عمیق برای ایجاد چهره‌هایی که به نظر واقعی می‌آیند، استفاده می‌شود. گاه حتی می‌توان از این روش برای القای پیام‌هایی ازجمله اهانت‌های جعلی باراک اوباما علیه دونالد ترامپ یا دست‌کاری ویدیوی سخنرانی ریچارد نیکسون برای آپولوی ۱۱ استفاده کرد که هرگز گفته نشده است. پژوهشگران...
    به گزارش گروه سوادرسانه خبرگزاری فارس، برخی افراد تصور می‌کنند جلوه‌های ویژه فقط مختص فیلم‌های سینمایی و اکشن‌های هالیوودی است اما وقتی شما روی عکس‌ها و فیلم‌های گوشی تلفن همراهتان فیلترهای مختلف می‌گذارید در واقع از نوعی جلوه‌های ویژه استفاده می‌کنید. اگر زمانی با ظهور نرم‌افزارهای ویرایش تصویر مانند فتوشاپ، امکان تولید تصاویر غیرواقعی امکان‌پذیر شد اما امروز یک گروه مبتدی می‌توانند به‌سادگی و به کمک هوش مصنوعی با تکنولوژی جعل عمیق، فیلم‌های جعلی از افراد مختلف تولید کنند. در حال حاضر هیچ راهی برای تشخیص این نوع فیلم‌ها وجود ندارد مگر هوشمندی و ذکاوت مخاطب و این یعنی نه‌تنها ممکن است تصاویر جعلی باشند بلکه ممکن است فیلمی که از یک سیاستمدار یا یک فرد مشهور برای شما ارسال...
    امروزه اکثر افراد می‌توانند با کمک نرم افزار‌های ویرایش تصاویر از جلوه‌های ویژه استفاده و تصاویری جعلی و غیر واقعی تولید کنند. خبرگزاری میزان - مرکز توسعه فرهنگ و هنر در فضای مجازی نوشت: برخی افراد تصور می‌کنند جلوه‌های ویژه فقط مختص فیلم‌های سینمایی و اکشن‌های هالیوودی است، اما وقتی شما روی عکس‌ها و فیلم‌های گوشی تلفن همراهتان فیلتر‌های مختلف می‌گذارید در واقع از نوعی جلوه‌های ویژه استفاده می‌کنید. اگر زمانی با ظهور نرم‌افزار‌های ویرایش تصویر مانند فتوشاپ، امکان تولید تصاویر غیرواقعی امکان‌پذیر شد، اما امروز یک گروه مبتدی می‌توانند به‌سادگی و به کمک هوش مصنوعی با تکنولوژی جعل عمیق، فیلم‌های جعلی از افراد مختلف تولید کنند. در حال حاضر هیچ راهی برای تشخیص این نوع فیلم‌ها وجود ندارد مگر...
    آفتاب‌‌نیوز : در حالی که ممکن است ما عادت کرده باشیم از فناوری موسوم به "جعل عمیق" برای طیف وسیعی از کارهای نسبتاً بی‌ضرر استفاده شود، اما از این فناوری می‌توان برای ایجاد محتوای مخرب نیز مانند انداختن صورت شخص دیگری در یک صحنه ناشایست یا آسیب رساندن به حرفه یک سیاستمدار استفاده کرد. تصاویری که مورد دستکاری "جعل عمیق" قرار می‌گیرند در واقع فیلم‌ها یا عکس‌های تغییر یافته دیجیتالی از چهره یک یا چند شخص با استفاده از هوش مصنوعی است که می‌تواند کاملاً واقعی به نظر برسد. این تصاویر به قدری می‌توانند مخرب باشند که سال گذشته ایالت کالیفرنیا استفاده از این فناوری را در حوزه سیاست و پورنوگرافی ممنوع کرد. ما به راحتی با این فناوری...
    انتشار ویدئویی جعلی موسوم به «جعل عمیق» (Deep Fake) از تام کروز (بازیگر و تهیه‌کننده معروف هالیوود) در فضای مجازی باعث شد میلیون‌ها کاربر اینترنت به وحشت بیفتند.  به گزارش گروه فرهنگی خبرگزاری دانشجو، انتشار ویدئویی جعلی موسوم به «جعل عمیق» (Deep Fake) از تام کروز (بازیگر و تهیه‌کننده معروف هالیوود) در فضای مجازی باعث شد میلیون‌ها کاربر اینترنت به وحشت بیفتند. اگرچه تام کروز در ویدئوی مذکور، حرف یا حرکت وحشتناکی انجام نداده و تنها درباره نظافت صنعتی خطاب به کاربران شبکه اجتماعی «تیک‌تاک» سخن گفته، اما طراحی رفتار و لحن بیان و حرکات بسیار متنوع و سریع او در این ویدئو، شاید هیچ‌کس حتی نزدیک‌ترین افراد به این هنرپیشه معروف را دچار تردید نکند. اگرچه پیش از...
    به گزارش همشهری آنلاین، ایسنا به نقل از آی‌ای، همه ما تاکنون فیلم‌های خارجی را تماشا کرده‌ایم که دوبله شده‌اند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده می‌شود که صدای دوبله با لب‌های بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deep fake) یا "جعل عمیق" به وجود آمده است که می‌تواند فیلم‌ها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی بر هوش مصنوعی است و می‌تواند انقلابی در نحوه ترجمه فیلم‌ها به زبان‌های دیگر ایجاد کند. این فناوری توسط شرکتی بریتانیایی به نام...
    یک هوش مصنوعی جدید می‌تواند کاری کند که بازیگران مورد علاقه مخاطبان به زبان مادری آنها، و هم به شکل روان صحبت کنند.  همه ما تاکنون فیلم‌های خارجی را تماشا کرده‌ایم که دوبله شده‌اند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده می‌شود که صدای دوبله با لب‌های بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deepfake) یا "جعل عمیق" به وجود آمده است که می‌تواند فیلم‌ها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی بر هوش مصنوعی است و می‌تواند...
    یک هوش مصنوعی جدید می‌تواند کاری کند که بازیگران مورد علاقه مخاطبان به زبان مادری آنها، Hن هم به شکل روان صحبت کنند. به گزارش ایسنا و به نقل از آی‌ای، همه ما تاکنون فیلم‌های خارجی را تماشا کرده‌ایم که دوبله شده‌اند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده می‌شود که صدای دوبله با لب‌های بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deepfake) یا "جعل عمیق" به وجود آمده است که می‌تواند فیلم‌ها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی...
    یک فناوری جدید "دیپ‌فیک" یا همان جعل عمیق به افراد مشهور اجازه می‌دهد صدای خود را مجوز دار کنند.  با وجود نگرانی‌های فزاینده از این واقعیت که فناوری "دیپ‌فیک"(deepfake) یا "جعل عمیق" می‌تواند به شکل غیر قابل تصوری حقیقت را تغییر دهد، برخی از شرکت‌ها هنوز هم تلاش می‌کنند آن را به عنوان یک محصول خوب و مناسب برای مصرف کننده معرفی کنند. یکی از این شرکت‌ها "وریتون"(Veritone) نام دارد و به تازگی توضیح داده است که قصد دارد افراد مشهور را قادر سازد تا صدای خود را لایسن کنند و از این راه درآمد کسب کنند. این برنامه جدید "دیپ‌فیک" که "مارول.ای‌آی"(Marvel.ai) نام دارد، اساساً مجوز دار کردن صدای افراد مشهور، سیاستمداران و مدیران عامل شرکت‌های...
    یک فناوری جدید "دیپ‌فیک" یا همان جعل عمیق به افراد مشهور اجازه می‌دهد صدای خود را مجوز دار کنند. به گزارش ایسنا و به نقل از آی‌ای، با وجود نگرانی‌های فزاینده از این واقعیت که فناوری "دیپ‌فیک"(deepfake) یا "جعل عمیق" می‌تواند به شکل غیر قابل تصوری حقیقت را تغییر دهد، برخی از شرکت‌ها هنوز هم تلاش می‌کنند آن را به عنوان یک محصول خوب و مناسب برای مصرف کننده معرفی کنند. یکی از این شرکت‌ها "وریتون"(Veritone) نام دارد و به تازگی توضیح داده است که قصد دارد افراد مشهور را قادر سازد تا صدای خود را لایسن کنند و از این راه درآمد کسب کنند. این برنامه جدید "دیپ‌فیک" که "مارول.ای‌آی"(Marvel.ai) نام دارد، اساساً مجوز دار کردن صدای افراد...
    محققان دانشگاه واشنگتن هشدار داده‌اند تهیه تصاویر ماهواره‌ای جعلی با استفاده از فناوری جعل عمیق یا دیپ فیک می‌تواند امنیت ملی کشورها را به خطر بیندازد. پیش از این نگرانی از تهیه محتوای ویدئویی یا تصویری جعلی و قلابی از اشخاص مشهور با استفاده از فناوری جعل عمیق موجب نگرانی‌های امنیتی شده بود. اما حالا دامنه این تهدید به تهیه تصاویر ماهواره‌ای جعلی کشیده شده است. این پژوهشگران می‌گویند با استفاده از الگوریتم‌های هوش مصنوعی و از طریق تغذیه این الگوریتم‌ها با استفاده از عکس‌ها و نقشه‌های ماهواره‌ای مختلف، می‌توان تصاویر ماهواره‌ای جعل عمیق تهیه کرد که حاوی جاده‌ها، ساختمان‌ها، عوارض جغرافیایی و غیره غیر واقعی باشند یا ابعاد و ارتفاع و موقعیت ساختمان‌ها، جاده‌ها و غیره در...
    برای کسانی که از آینده می‌ترسند و همواره نگران هستند بخش‌های دلهره‌آور فیلم‌های تخیلی روزی به حقیقت بپیوندد، باید گفت فناوری «جعل عمیق» این نگرانی را تا حدودی به حقیقت بدل کرده است. ناطقان:  روزنامه ایران در ترجمه مقاله‌ای از نیویورک‌تایمز نوشت: «در حالی که میلیون‌ها کاربر این هفته ویدیوی «تام کروز» بازیگر مشهور را در شبکه‌های اجتماعی مشاهده می‌کردند، مشخص شد این تصاویر با فناوری هوش مصنوعی و به روش جعل عمیق ساخته شده است.ویدیویی که در تیک‌تاک، توئیتر و سایر شبکه‌های اجتماعی بین میلیون‌ها کاربر دست به دست شد توسط یک هنرمند جلوه‌های تصویری و با شبیه‌سازی یکی از برنامه‌های «بیل هیدر» بازیگر هالیوودی ساخته شد. در این برنامه که اصل آن متعلق به یک گفت‌وگوی تلویزیونی در...
    برای کسانی که از آینده می‌ترسند و همواره نگران هستند بخش های دلهره‌آور فیلم‌های تخیلی روزی به حقیقت بپیوندد باید گفت فناوری «جعل عمیق» این نگرانی را تا حدودی به حقیقت بدل کرده است. به گزارش روزنامه نیویورک تایمز، در حالی که میلیون‌ها کاربر این هفته ویدیوی «تام کروز» بازیگر مشهور را در شبکه‌های اجتماعی مشاهده می‌کردند مشخص شد این تصاویر با فناوری هوش مصنوعی و به روش جعل عمیق ساخته شده است. ویدیویی که در تیک‌تاک، توئیتر و سایر شبکه‌های اجتماعی بین میلیون‌ها کاربر دست به دست شد توسط یک هنرمند جلوه‌های تصویری و با شبیه‌سازی یکی از برنامه‌های «بیل هیدر» بازیگر هالیوودی ساخته شد. در این برنامه که اصل آن متعلق به یک گفت‌وگوی تلویزیونی در سال...
    دانشمندان با آزمایش پیشرفته‌ترین آشکارسازهای فناوری "دیپ‌فیک"(deepfake) به معنای "جعل عمیق" ثابت کردند که می‌توان آنها را نیز فریب داد. به گزارش ایسنا و به نقل از انگجت، دانشگاه‌ها، سازمان‌ها و غول‌های فناوری مانند مایکروسافت و فیسبوک با کار بر روی ابزارهایی که بتوانند "جعل عمیق" را تشخیص دهند، در تلاش هستند تا از استفاده از آن برای گسترش اخبار مخرب و اطلاعات غلط جلوگیری کنند. اکنون گروهی از دانشمندان علوم رایانه از دانشگاه "سن دیگو" هشدار داده‌اند که آشکارسازهای "جعل عمیق" هنوز هم با وجود این ابزارها قابل فریب دادن هستند. این تیم در کنفرانس بینش رایانه ای "WACV 2021" که به صورت آنلاین برگزار شد، با درج ورودی‌هایی در هر فریم ویدیویی نشان داد که چگونه می‌توان...
    دکتر اسحاقی امروز سه شنبه در گفت وگو با خبرنگار ایرنا تصریح کرد: هم مسئولان و هم رسانه‌ ملی و مطبوعات داخلی باید با اتخاذ رویکردی متفاوت، گفتمان سیاسی تازه‌ای را برای پوشش و روایت رویدادهای انتخاباتی و طرح آن در حوزه عمومی داشته باشند و در عین حال، به شدت مراقب «اخبار جعلی» و «دیپ فیک» (جعل عمیق) باشند. این نویسنده حوزه ارتباطات جمعی با تاکید بر اینکه داغ شدن تنور انتخابات و پیروزی در آن بدون حمایت و همراهی رسانه ها ممکن نیست، ضرورت برنامه ریزی درست در این عرصه را گوشزد کرد و و در همین زمینه به سرنوشت «دونالد ترامپ» اشاره کرد که در انتخابات اخیر امریکا، بیش از پیامد رفتارهایش نظیر خودشیفتگی و یا اقداماتی همچون پیمان شکنی های...
    به گزارش گروه فیلم و صوت باشگاه خبرنگاران جوان، پیام کریسمس ملکه بریتانیا به برخی شایعات درباره سلامت وی دامن زد. تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است. در این ویدئو، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال بیان اظهاراتی درباره شاهزاده هری و مگان مارکل، زوج سلطنتی است. جعل عمیق یا دیپ فیک ترکیبی از کلمه‌های جعلی و یک تکنیک برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است که ممکن است در آن لحظه و در آن مکان فرد مورد نظر اصلا حضور...
    آفتاب‌‌نیوز : «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر روی عکسها تشریح کرد. «deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از هنرپیشه های مشهور هالیوود را در...
    «deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» برای تعدادی از هنرپیشه های مشهور هالیوود مورد استفاده قرار گرفت و ویدئوهایی خلق شده بود که وجود خارجی نداشت. به گزارش مشرق، «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر...
    «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است.  تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است. در این ویدئوی پنج‌ دقیقه‌ای، که هم‌زمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، او...
    خبرگزاری فارس ـ گروه رسانه ـ علیرضا سپهوند: «deepfake» یا «جعل عمیق» به ویدیوهایی اتلاق می شود که در آن ها با بهره از نرم افزارهای هوش مصنوعی مجموعه ای از فیلم ها و عکس های یک شخص خاص را ترکیب کرده و تغییر داده و حرکات و گفتاری برای آن فرد تولید می کنند که در اصل وجود خارجی ندارد و آن فرد در دنیای واقعی آن حرکات یا گفتار را انجام نداده است. کارکرد «جعل عمیق» در ویدیو یا فیلم را می توان عینا همچون کارکرد فوتوشاپ بر روی عکسها تشریح کرد.    «deepfake» یا «جعل عمیق» اولین بار در سال ۲۰۱۷ توسط یک کاربر ناشناس در سایت «Reddit» مورد استفاده قرار گرفت که در آن تعدادی از...
    به گزارش جام جم آنلاین از مهر، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است. در این ویدئوی پنج‌ دقیقه‌ای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده «هری» و «مگان مارکل» زوج سلطنتی دیده می‌شود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آن‌ها با استفاده از نرم‌افزارهای هوش مصنوعی فیلم‌ها به نحوی تغییر داده می‌شوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آن‌ها را انجام نداده است. نقش فناوری جعل...
      به گزارش تابناک به نقل از یورو نیوز، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است. در این ویدئوی پنج‌ دقیقه‌ای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده می‌شود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آن‌ها با استفاده از نرم‌افزارهای هوش مصنوعی فیلم‌ها به نحوی تغییر داده می‌شوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آن‌ها را انجام نداده است. نقش...
    خبرگزاری مهر: به نقل از یورو نیوز، تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است. در این ویدئوی پنج‌ دقیقه‌ای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده می‌شود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آن‌ها با استفاده از نرم‌افزارهای هوش مصنوعی فیلم‌ها به نحوی تغییر داده می‌شوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آن‌ها را انجام نداده است. نقش فناوری جعل...
    تصمیم شبکه چهار تلویزیون انگلیس برای پخش یک پیام کریسمس از الیزابت دوم، ملکه بریتانیا، که با استفاده از فناوری «جعل عمیق» ساخته شده بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است. در این ویدئوی پنج دقیقه‌ای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده می‌شود. ویدئوهای جعل عمیق ویدئوهایی هستند که در آن‌ها با استفاده از نرم‌افزارهای هوش مصنوعی فیلم‌ها به نحوی تغییر داده می‌شوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آن‌ها را انجام نداده است. نقش فناوری جعل عمیق در دستکاری در دنیای...
    کم کم وقتش رسیده که «فتوشاپ» را فراموش کنیم. البته آن‌هایی که خدای ناکرده در کار تولید تصاویر جعلی هستند و یا در فضای مجازی قصد سر به سر گذاشتن با مخاطبان را دارند و می‌خواهند آبروی کسی را ببرند، مدت‌هاست «فتوشاپ» را کنار گذاشته و سراغ فناوری‌های تازه رفته‌اند. مجید تربت‌زاده / کم کم وقتش رسیده که «فتوشاپ» را فراموش کنیم. البته آن‌هایی که خدای ناکرده در کار تولید تصاویر جعلی هستند و یا در فضای مجازی قصد سر به سر گذاشتن با مخاطبان را دارند و می‌خواهند آبروی کسی را ببرند، مدت‌هاست «فتوشاپ» را کنار گذاشته و سراغ فناوری‌های تازه رفته‌اند. این ما هستیم که هنوز در شوخی‌ها و تصوراتمان وقتی قرار است از قلابی بودن یک...
    به گزارش گروه فیلم و صوت باشگاه خبرنگاران جوان، دیپ فیک یا جعل عمیق یک تکنیک عجیب برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است. این تکنولوژی تصاویر و فیلم‌های موجود را بر روی فیلم‌های منبع قرار می‌دهد و فیلم جعلی به دست آمده، ترکیب چند ویدیو با هم است. جعل عمیق فرد یا افرادی را درحال انجام کاری در یک موقعیت نشان می‌دهد که هرگز آن کار در واقعیت اتفاق نیفتاده است.   بیشتر بخوانید تخت گاز چین در تولید انبوه فناوری جدید + فیلم   کد ویدیو دانلود فیلم اصلی انتهای پیام/
    محققان در کشورهای مختلف تلاش می‌کنند تا با استفاده از فناوری‌های هوشمند ویدئوهای جعلی را شناسایی و آن‌ها را به کاربران معرفی کنند. به گزارش خبرنگار حوزه علم، فناوری و دانش‌بنيان گروه فناوری خبرگزاری آنا، یکی از تبعات فناوری که هنوز به طور کامل وجه ترسناک خود را نشان نداده است،‌ فناوری جعل عمیق نام دارد. در فناوری جعل عمیق(deep fake) فیلم‌هایی جعلی از افراد ساخته می‌شود که امکان سواستفاده را برای تبهکاران به وجود می‌آورد. بیشتر بخوانید: انحراف علم به‌دست سودجویان/ هوش مصنوعی چگونه موجب حملات سایبری می‌شود؟ به طور قطع نمی‌توان جلوی پیشرفت فناوری را گرفت. اما آیا در تماشای یک ویدئوی جعل عمیق(deep fake)، می‌توان نسبت به ساختگی بودن محتوای ویدئو آگاه شد؟ همزمان با پیشرفت...
    در پی انتشار ویدئویی در فضای مجازی از خواندن ترانه «ایران من» با لبخوانی جمعی از چهره‌های مشهور تاریخ معاصر ایران كه با فناوری «جعل عمیق» ساخته شده بود، به ابعاد گوناگون کاربردهای این فناوری می‌پردازیم. به گزارش گروه رسانه‌های دیگر خبرگزاری آنا، در این روزهای داغ كارزار انتخابات آمریكا شما هم این فیلم را دیده‎اید كه باراك اوباما، رئیس جمهور سابق آمریكا، دونالد ترامپ را «احمقی به تمام معنا» خطاب می‎كند؟ یا فیلمی كه مارك زاكربرگ، صاحب شبكه اجتماعی فیسبوك، ادعا می‎كند كنترل كاملی روی اطلاعات دزدیده شده میلیون‎ها كاربر دارد؟ یا فیلمی كه شخصیت‎های بزرگ و مبارز تاریخ كشورمان از میرزاكوچك‌خان جنگلی و ستارخان گرفته تا شهید همت و شهید چمران، سرود «ایرانِ من» از همایون شجریان...
    به گزارش خبرنگار گروه علم و فناوری ایسکانیوز، یک روزنامه نگار، تحقیقی ویدیویی از افشاگر ناشناسی دریافت می کند که در آن کاندیدای ریاست جمهوری به فعالیت غیرقانونی اعتراف کرده است. اما آیا این ویدئو واقعی است؟ روزنامه نگار فیلم را از طریق ابزاری تخصصی بررسی می کند و در میابد ویدئو آن چیزی نیست که به نظر می رسد. در حقیقت، این جعل عمیق است، ویدیویی که با استفاده از هوش مصنوعی با یادگیری عمیق ساخته شده است. کارشناسان عرصه فناوری این روزها اصطلاح جدیدی با عنوان «دیپ فیک» را در صحبت های خود مطرح می کنند که در اصل از ترکیب عبارت های «یادگیری عمیق» و «اطلاعات جعلی» ساخته شده است. این اصطلاح برای آن دسته از فایل...
    آفتاب‌‌نیوز : شبکه تلویزیونی "راشا تودی" روز سه‌شنبه تبلیغی طنزگونه تحت عنوان «ترامپ به اینجا آمده تا "آر تی" (راشا تودی) را دوباره با عظمت کند!» منتشر کرد. این ویدیوی جنجالی، نوامبر ۲۰۲۰ را به تصویر می‌کشد که ترامپ پس از شکست در انتخابات مقابل جو بایدن پیشنهاد مجری‌گری میزبان در راشا تودی مسکو را دریافت کرده است. یک بازیگر با مشخصات ظاهری ترامپ در این فیلم دیده می‌شود که فایل‌های صوتی از رئیس‌جمهوری آمریکا روی صدای آن به گوش می‌خورد و آنها جملات و عبارات چاپلوسانه و اغراق‌آمیز درباره ولادیمیر پوتین، رئیس‌جمهوری روسیه، ستایش کرملین و انتقاد از رسانه‌های جریان اصلی هستند. ظاهرا هدف این ویدیوی راشا تودی سر کار گذاشتن منتقدانی است که ترامپ را دست‌آموز پوتین...
    با تکنولوژی جعل عمیق آشنا شوید
    مایکروسافت برای مقابله با جعل عمیق از دو برنامه مبتنی بر هوش مصنوعی رونمایی کرد. به گزارش خبرنگار حوزه علم، فناوری و دانش‌بنیان گروه دانشگاه خبرگزاری آنا از تک اورگ، دنیای کنونی با چالش‌های مختلفی در رابطه با سوء‌استفاده از فناوری‌های مدرن دیجیتالی روبرو است. این مسائل غالباً با پردازش و دستکاری تصویر همراه هستند که با استفاده از هوش مصنوعی و الگوریتم‌های یادگیری عمیق، محصولی به‌نام جعل عمیق یا تصاویر مهندسی‌شده تولید می‌شود. درحالت عادی تشخیص این تصاویر از حقیقت دشوار است. تحقیقاتی که اخیراً از استاد دانشگاه پرینستون، یعقوب شاپیرو منتشر شده، نشان می‌دهد که کمپین‌هایی که به‌دنبال نفوذ در مخاطب هستند، غالباً حقایق قابل‌تأیید عینی را تحریف می‌کنند. در این تحقیق خاص، 74درصد از کل کمپین‌های...
    ایتنا - مایکروسافت مدعی است ابزار یادشده عناصر ظریفی را در عکس‌ها و ویدئوها مورد بررسی و توجه قرار می‌دهد که معمولاً انسان با چشم خود قادر به تشخیص آنها نیست. شیوع کرونا و در پیش بودن انتخابات ریاست جمهوری آمریکا نگرانی در مورد انتشار ویدئوهای جعل عمیق را افزایش داده و از همین رو مایکروسافت ابزاری برای شناسایی این ویدئوها عرضه کرده است. به گزارش ایتنا از مهر، ابزار جدید مایکروسافت شناسایی کننده اصالت ویدئوها نام دارد و با تحلیل ویدئوها و عکس‌های موجود در اینترنت تشخیص خواهد داد که آیا این نوع محتواها واقعی هستند یا دستکاری شده و فاقد سندیت هستند. در نهایت ابزار مذکور بعد از بررسی عکس‌ها و فیلم‌های ارسالی به آنها...
    به گزارش خبرگزاری مهر به نقل از انگجت، ابزار جدید مایکروسافت شناسایی کننده اصالت ویدئوها نام دارد و با تحلیل ویدئوها و عکس‌های موجود در اینترنت تشخیص خواهد داد که آیا این نوع محتواها واقعی هستند یا دستکاری شده و فاقد سندیت هستند. در نهایت ابزار مذکور بعد از بررسی عکس‌ها و فیلم‌های ارسالی به آنها امتیاز اعتماد می‌دهد یا شانس واقعی بودن آنها را بر مبنای درصد نمایش می‌دهد. مایکروسافت تحلیل ویدئوها را با استفاده از ابزار خود به صورت فریم به فریم انجام می‌دهد. مایکروسافت مدعی است ابزار یادشده عناصر ظریفی را در عکس‌ها و ویدئوها مورد بررسی و توجه قرار می‌دهد که معمولاً انسان با چشم خود قادر به تشخیص آنها نیست. تولیدکنندگان محتوا و فعالان حوزه...
    اپلیکیشن چینی تیک تاک با هدف مقابله با انتشار اخبار و اطلاعات دروغ و جلوگیری از دخالت در انتخابات آمریکا وعده داده که با ویدئوهای جعل عمیق مقابله کند. به گزارش خبرنگار گروه علمی و دانشگاهی خبرگزاری فارس به نقل از انگجت، تیک تاک که تلاش دارد به هر نحو ممکن امکان فعالیت در آمریکا را برای خود حفظ کند، می گوید این اپلیکیشن با هرگونه تولید و انتشار ویدئوهای دروغین جعل عمیق که در آنها گفتار و کلام دروغین به افراد و چهره های مشهور نسبت داده می شود مقابله می کند. هدف از این کار جلوگیری از خدشه دار شدن واقعیت و آسیب دیدن اشخاص عنوان شده است. ونسا پاپاس از مدیران ارشد تیک تاک در بیانیه...
    به گزارش انگجت، بر اساس قوانین جدید توییتر دیگر نمی‌توان آن دسته از ویدئوهای مبتنی بر جعل عمیق را که آسیب‌های احتمالی به همراه دارند، در پلتفرم این شبکه اجتماعی منتشر کرد. به علاوه این شرکت همچنین با برچسب زدن بر توییت‌های حاوی مضامین مبتنی بر این فناوری، به افراد کمک می‌کند تا محتوای حقیقی را از محتوای دستکاری شده تشخیص دهند. بر این اساس، توییتر از تاریخ ۵ مارس (۱۵ اسفند) بر توییت‌های حاوی «محتوای دستکاری شده یا ساختگی» نشان می‌گذارد، دامنه دیده شدن آن‌ها را محدود می‌کند و به کاربرانی که قصد لایک یا بازنشر چنین مضامینی را دارند، هشدار می‌دهد. دیپ فیک (Deepfake) یا جعل عمیق نوعی فناوری بر پایه هوش مصنوعی است که در تولید یا تغییر محتوای ویدیویی استفاده می‌شود تا...
    ایتنا - شرکت بایت دنس که مالک اپلیکیشن شبکه اجتماعی تیک تاک است، قابلیتی را به طور آزمایشی به این برنامه افزوده که تولید ویدئوهای جعل عمیق را با دریافت یک عکس ممکن می‌کند. شرکت بایت دنس که مالک اپلیکیشن شبکه اجتماعی تیک تاک است، قابلیتی را به طور آزمایشی به این برنامه افزوده که تولید ویدئوهای جعل عمیق را با دریافت یک عکس ممکن می‌کند. به گزارش ایتنا از مهر، قابلیت یادشده که Face Swap نام دارد در قالب کدهایی به برنامه تیک تاک و هم به اپلیکیشن چینی دوئین افزوده شده است. با فعال کردن قابلیت مذکور افراد تنها باید چهره خود را اسکن کنند و سپس منتظر تهیه ویدئویی جعلی و قلابی بر مبنای تصویر...
    به گزارش خبرگزاری مهر به نقل از انگجت، قابلیت یادشده که Face Swap نام دارد در قالب کدهایی به برنامه تیک تاک و هم به اپلیکیشن چینی دوئین افزوده شده است. با فعال کردن قابلیت مذکور افراد تنها باید چهره خود را اسکن کنند و سپس منتظر تهیه ویدئویی جعلی و قلابی بر مبنای تصویر خود باشند. محققان امنیتی در مورد اضافه شدن چنین قابلیتی به شبکه اجتماعی تیک تاک هشدار داده و می‌گویند ویدئوهای جعل عمیق برای کلاهبرداری و اقدامات فریبکارانه قابل استفاده هستند و تسهیل تولید ویدئوهای مذکور ایده بدی است. همچنین از طریق قابلیت یادشده می‌توان داده‌های حساس بیومتریک شخصی افراد را هم سرقت کرد و این مساله هم موجب نگرانی است. هنوز مشخص نیست آیا قابلیت...
    خبرگزاری رویترز با همکاری شرکت فیس بوک یک دوره آنلاین برای کمک به روزنامه نگاران به منظور شناسایی تصاویر، اصوات و ویدئوهای جعل عمیق برگزار می کند. به گزارش خبرنگار گروه علمی و دانشگاهی خبرگزاری فارس به نقل از انگجت، مدت برگزاری این دوره آنلاین ۴۵دقیقه است و به روزنامه نگاران امکان می‌دهد تا با ابزار لازم به منظور شناسایی محتوای جعل عمیق آشنا شوند.   پیشرفت فناوری هوش مصنوعی باعث شده تا برخی افراد کلاه‌بردار و متخلف به منظور تاثیرگذاری بر افکار عمومی و فریب مردم فایل های ویدئویی،صوتی و تصاویر دروغینی را منتشر کنند. در این تصاویر و فایل‌ها معمولا شخصیت‌های سیاسی و اجتماعی مشهور در حال اظهار نظرهایی جنجالی هستند. کارشناسان هشدار می‌دهند که گسترش...
    شرکت امنیتی مک آفی ویدئوهای جعل عمیق را یک تهدید سایبری عمده در سال 2020 دانست و از ضرورت برخورد با آن خبر داد. به گزارش خبرنگار گروه علمی و دانشگاهی خبرگزاری فارس به نقل از آسین ایج، ویدئوهای جعل عمیق که با استفاده از هوش مصنوعی به تقلید از سخنرانی‌های افراد مشهور و سیاستمداران می پردازند، چنان دقیق جعل می شوند که تشخیص قلابی بودن آنها تقریبا غیرممکن است و از همین رو مک آفی این پدیده را یک تهدید امنیتی جدی دانسته است.   مک آفی در گزارش امنیتی تازه خود برای سال 2020 تاکید کرده که ماهیت جرائم سایبری در حال تغییر است و باید قوانین جدیدی به منظور مقابله با این شرایط وضع شوند....