2024-04-29@08:39:42 GMT
۲۰۰ نتیجه - (۰.۰۱۴ ثانیه)
جدیدترینهای «دیپ فیک»:
بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
احتمالا در سالهای اخیر همه ما نمونههایی از دیپفیکها را دیده، با آنها مواجه شده یا حداقل اسمشان را شنیدهایم. تصاویر و صداهایی غیر واقعی که به سختی میتوان آنها را از واقعیت تشخیص داد. به گزارش عصرایران به نقل از ساوت چاینا مورنینگ پست، پیشرفتهای سریع در هوش مصنوعی منجر به ایجاد و انتشار تصاویر و ویدئوهای دیپ فیک بیشتر در فضای مجازی شده است اما بسیاری نیز از این فناوری در جهت فریب و استفاده غیر اخلاقی، کلاهبرداری مالی و انتخاباتی بهره بردهاند. در فوریه سال جاری میلادی چندین نفر از مدیران ارشد مالی یک شرکت چند ملیتی در هنگ کنگ در یک جلسه ویدئویی آنلاین از یکی از کارمندان خود خواستند تا مبلغ زیادی پول را انتقال...
احتمالا در سالهای اخیر همه ما نمونههایی از دیپفیکها را دیده، با آنها مواجه شده یا حداقل اسمشان را شنیدهایم. تصاویر و صداهایی غیر واقعی که به سختی میتوان آنها را از واقعیت تشخیص داد. به گزارش عصرایران به نقل از ساوت چاینا مورنینگ پست، پیشرفتهای سریع در هوش مصنوعی منجر به ایجاد و انتشار تصاویر و ویدئوهای دیپ فیک بیشتر در فضای مجازی شده است اما بسیاری نیز از این فناوری در جهت فریب و استفاده غیر اخلاقی، کلاهبرداری مالی و انتخاباتی بهره بردهاند. در فوریه سال جاری میلادی چندین نفر از مدیران ارشد مالی در یک جلسه ویدئویی آنلاین از یکی از کارمندان خود خواستند تا مبلغ زیادی پول را انتقال دهد. کمی بعد مشخص شد این جلسه...
به گزارش خبرگزاری علم و فناوری آنا به نقل از سیجیتیان، جعلی بودن فناوری هوش مصنوعی به سرعت در حال تبدیل به یکی از بزرگترین مشکلاتی است که ما در فضای آنلاین با آن روبهرو هستیم. تصاویر، ویدئوها و صداهای فریبنده در نتیجه افزایش و استفاده نادرست از ابزارهای هوش مصنوعی مولد در حال گسترش هستند. از آنجایی که تقریباً هر روز دیپفیکهای هوش مصنوعی منتشر میشوند و همه افراد از تیلور سویفت گرفته تا دونالد ترامپ را به تصویر میکشند، تشخیص اینکه چه چیزی واقعی و چه چیزی واقعی نیست سختتر میشود. شرکتهای تولیدکننده ویدئو و تصویر مانند اپنایآی، ساخت دیپفیک را با دسترسیهایی که در اختیار میگذارند برای افراد بدون نیاز به هیچگونه مهارت فنی خاصی آسان کردهاند،...
ایتنا - دیپفیکهای هوش مصنوعی اغلب برای ایجاد آسیب استفاده میشوند، اما روشهای موجود طراحی شده برای کاهش یا جلوگیری از تقلب باید برای محافظت در برابر این فناوری کافی باشد. در عصر دیجیتالی که در آن زندگی میکنیم، مرز بین واقعیت و فانتزی مبهم شده است. ظهور فناوری جعل عمیق (دیپ فیک) نگرانیهای عمده و بحث های جنجالی را در مورد صحت محتوای بصری ایجاد کرده است. همانقدر که تصاویر دستکاری شده پیچیدهتر میشوند، درک فناوری زیربنایی و تاثیر بالقوه آن ضروریتر میشود، به خصوص که ظهور جعل عمیق پیامدهای زیادی برای جنبههای مختلف جامعه از جمله سیاست، روزنامه نگاری، سرگرمی و حریم خصوصی دارد. با کنترلهای صحیح و هوشیار بودن نسبت به خطرات احتمالی...
ایتنا - کارشناسان هوش مصنوعی و پیشگامان این حوزه در نامهای سرگشاده با تاکید بر ریسک های احتمالی دیپ فیک برای جامعه، خواهان تصویب قوانین بیشتری شدند. کارشناسان هوش مصنوعی مدیران اجرایی صنعتی از جمله یوشوا بنجیو به عنوان یکی از پیشگامان این حوزه در نامه سرگشاده ای با توجه به ریسک های احتمالی دیپ فیک برای جامعه، خواهان تصویب قوانین بیشتری در این باره شدند. در این نامه که توسط اندرو کریچ محقق هوش مصنوعی نوشته شده، آمده است: امروزه دیپ فیک ها شامل تصاویر هرزنگاری، کلاهبرداری یا اخبار جعلی سیاسی هستند. از آنجا که هوش مصنوعی به سرعت در حال پیشرفت است و ساخت دیپ فیکها را سادهتر می کند، به اقدامات امنیتی بیشتری نیاز است....
به گزارش خبرگزاری مهر به نقل از رویترز، کارشناسان هوش مصنوعی مدیران اجرایی صنعتی از جمله یوشوا بنجیو به عنوان یکی از پیشگامان این حوزه در نامه سرگشاده ای با توجه به ریسک های احتمالی دیپ فیک برای جامعه، خواهان تصویب قوانین بیشتری در این باره شدند. در این نامه که توسط اندرو کریچ محقق هوش مصنوعی نوشته شده، آمده است: امروزه دیپ فیک ها شامل تصاویر هرزنگاری، کلاهبرداری یا اخبار جعلی سیاسی هستند. از آنجا که هوش مصنوعی به سرعت در حال پیشرفت است و ساخت دیپ فیک ها را ساده تر می کند، به اقدامات امنیتی بیشتری نیاز است. دیپ فیک ها تصاویر، اصوات و ویدیوهایی هستند که با الگوریتم های هوش مصنوعی ابداع شده اند و...
جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی بهویژه برای افراد سرشناس به دردسری جدی تبدیل شده است. به گزارش آنا؛ «اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئوها و صداهای جعلی ساختهشده با هوش مصنوعی که به «جعل عمیق» (دیپ فیک) شناخته میشوند، موجی از تهدیدات جدید به راه انداخت و در مواردی آسیبهایی را در ابعاد مختلف ملی یا جهانی به بار آورد. گزارش پیش رو که از نظر میگذرانید برگردان گزارش ساینس در خصوص جعل عمیق است. در محتواهای جعل عمیق از الگوریتمهایی استفاده میشود که با استفاده از تصویر یا صدای افراد نسخهای جعلی میسازند و صدایی را تولید میکنند که هرگز...
نشریه پولیتیکو گزارش داد که در بزرگترین سال انتخاباتی تاریخ، شرکتهای ادوبی، گوگل، متا، مایکروسافت، اپن آی و تیک تاک در حال آماده کردن پیش نویس یک طرح مشترک هستند که بر اساس آن اقدامات جدیتری را برای مبارزه با اخبار جعلی و دیپ فیک اتخاذ خواهند کرد. این نشریه میگوید شرکتهای فوق احتمالا جزئیات برنامه مشترک خود را در کنفرانس امنیتی مونیخ که روز جمعه برگزار میشود، ارائه خواهند کرد. این برنامه که در آستانه انتخابات گسترده امسال در کشورهای گوناگون تدوین میشود، قرار است ابزارهای جدیدی ارائه دهد که با انتشار اخبار جعلی توسط هوش مصنوعی مبارزه میکند. اضافه کردن واتر مارک (متن یا لوگوی خاصی که روی تصاویر قرار میگیرد) یکی از این ابزارها خواهد بود....
ایتنا - همانطور که فناوری دیپ فیک (جعل عمیق) پیشرفت کرده است، ابزارها و تکنیکهای طراحی شده برای شناسایی آنها نیز پیشرفت کرده است. در عصر دیجیتال، دیپ فیک به عنوان یک تهدید بزرگ برای اصالت محتوای آنلاین شناخته میشود. ویدیوهای تولید شده با هوش مصنوعی میتوانند به طور قانع کنندهای از افراد حقیقی تقلید کنند. تمایز واقعیت از دروغ را چنان دشوار میکند که میتواند همه چیز، از روابط شخصی گرفته تا انتخابات سیاسی را تحتالشعاع قرار دهد. خوشبختانه، همانطور که فناوری دیپ فیک (جعل عمیق) پیشرفت کرده است، ابزارها و تکنیکهای طراحی شده برای شناسایی آنها نیز پیشرفت کرده است. بنابراین، دراین مطلب پنج بهترین ابزار و تکنیکهای تشخیص دیپفیک را که امروزه در دسترس هستند،...
به گزارش خبرگزاری مهر به نقل از انگجت، ۲ شرکت در تگزاس به انبوهی از تماس های رباتیک مرتبط شده اند که از هوش مصنوعی برای تقلید صدای جوبایدن رییس جمهور آمریکا استفاده کرده بود. این صوت دیپ فیک از رای دهندگان نیوهمپشایر می خواست در انتخابات مقدماتی ریاست جمهوری این ایالت شرکت نکنند. به گفته جان فورملا دادستان کل ایالت نیوهمپشایر در ژانویه ۲۰۲۴ میلادی حدود ۲۵ هزار تماس رباتیک با ساکنان این ایالت گرفته شده است. فورملا اعلام کرد تحقیقات منبع تماس های رباتیک را به ۲ شرکت تگزاسی به نام های «لایف کورپوریشن» و «لینگوتلکام» مرتبط کرده است. تاکنون هیچ اتهامی علیه شرکت ها یا مالک لایف کورپوریشن ثبت نشده است. تحقیق در این زمینه همچنان...
در حال حاضر قانون مستقلّی در کشور برای دیپ فیکها و جرایمی که از طریق این فناوری ارتکاب پیدا میکند وضع نشده است و به علاوه علی رغم ورود این فناوری به کشور، هنوز ضوابطی توسط مراجع ذی صلاح برای استفاده از این فناوری در کشور به تصویب نرسیده تا حدود استفاده از این فناوری در عرصههای مختلف برای کاربران آن تشریح شود. یک وکیل دادگستری گفت: خلاء وجود قوانین خاص در خصوص بزهکاری از طریق فناوری دیپ فیک که بر پایه هوش مصنوعی بنا شده است با وجود قوانین و مقررات دیگری در حوزه جرایم رایانهای و برخی دیگر از قوانین، تا اندازهای قایل جبران است، ولی با توجه به ابعاد گسترده این فناوری و سرعت رشد و توسعه...
به گزارش «تابناک»، سیدمهدی حجتی در گفتوگو با ایسنا در رابطه با استفاده از دیپ فیک برای اهداف مجرمانه و غیر اخلاقی گفت: فناوری های نوین مانند سایر ابزارهای ساخت دست بشر مانند چاقویی دو لب عمل می کند؛ به نحوی که می توان از آنها برای امور مشروع و تسهیل امور دشوار در زندگی روزمره استفاده کرد و یا از آنها به عنوان یک ابزار برای اهداف و اغراض مجرمانه و نامشروع سود برد. این وکیل دادگستری با بیان این که فناوری دیپ فیک، علاوه بر آنکه فرصتی قابل توجه برای فعالیت های مشروع هنری در حوزه های مختلف صوتی و تصویری ایجاد کرده است، افزود؛ این فناوری در عین حال می تواند تهدیدی جدی برای حریم خصوصی افراد،...
زیسان: درحالی که جهان منتظر پاسخ آمریکا به حمله پهپادی که برج ۲۲ در اردن است، تصویری از جو بایدن با لباس نظامی در پلتفرم «ایکس» به صورت گسترده منتشر شده است. حقیقت این تصویر چیست؟ تصویر منتشر شده جو بایدن رئیس جمهور آمریکا را نشان میدهد که لباس نظامی به تن کرده و پشت میز جلسهای که شامل پرسنل نظامی بوده، نشسته است. اما با بررسی این تصویر مشخص شده است که این تصویر با استفاده از فناوری «دیپ فیک - جعل عمیق» تولید شده است. پیشتر نیز تصاویری جنجالی درباره تیلور سوئیفت خواننده مطرح آمریکایی با کمک هوش مصنوعی و دیپ فیک ساخته شده بود. tags # جو بایدن
ایتنا - بررسی جنجال اخیر تیلور سوئیفت: در مواجهه با تکنولوژی دیپفیک (جعل عمیق) قانون چه کاری از دستش ساخته است؟ آیا تصاویر تام هنکس در حال تبلیغ برنامه دندانپزشکی، پاپ فرانسیس با یک کاپشن جذاب یا سناتور آمریکایی رند پل، روی پله عمارت کنگره با یک حوله حمام قرمز نشسته را دیدهاید؟ یا مصاحبهای را تماشا کردید که باراک اوباما که اصولاً به مبادیآداب بودن شهره بود، دونالد ترامپ را یک احمق خطاب کرده است؟ یا اخیراً تصاویر زنندهای از تیلور سوئیفت که بهطور گسترده در شبکههای اجتماعی منتشر شد؟ همه اینها «دیپفیک» یا تصاویر جعلی بودند که با واقعیت مو نمیزد. هوش مصنوعی نرمافزاری را طراحی کرده که کار فتوشاپکارها را ساده کرده و با کمی...
هوش مصنوعی نرمافزاری را طراحی کرده که کار فتوشاپکارها را ساده کرده و با کمی دانش، در عرض چند دقیقه میتوانید تصاویری را خلق کنید که تشخیصاش از تصاویر واقعی بسیار سخت است. همانطور که در مورد تیلور سوئیفت، سنای آمریکا لازم دید که باید به لحاظ حقوقی چنین مواردی را بیشتر موردتوجه قرار دهد، برای همه هم این زنگ خطر به صدا در میآید که در این وضعیت، چه باید کرد؟ حقوق چهکاری از دستش ساخته است؟ به گزارش هم میهن، در این گزارش به این پرداختیم و در گفتگو با وحید آگاه، استاد دانشگاه علامه طباطبایی از منظر حقوقی این موضوع را مورد نقد و بررسی قرار دادیم که تحت چه قوانینی میتوان با دیپفیک مقابله کرد و...
تولید عکسهای جعلی با استفاده از هوش مصنوعی یکی از جنبههای خطرناک این فناوری است که به تازگی دامن تیلور سوئیفت خواننده مشهور آمریکایی را گرفته است. به گزارش خبرآنلاین، پس از اینکه عکسهای جعلی و مستهجن تیلور سوییفت میلیونها بار در فضای مجازی دیده شد و جنجال بسیاری به پا کرد، سیاستمداران آمریکایی را به این فکر انداخت که قوانین جدیدی برای جرمانگاری ایجاد جعل عمیق (دیپ فیک) تصویب کنند. تصاویر جعلی تیلور سوییفت در شبکههای اجتماعی از جمله تلگرام و ایکس (توییتر) منتشر شده بود. شبکه اجتماعی ایکس در بیانیهای اعلام کرد که این تصاویر را حذف و حسابهای مرتبط با آنها را محدود کرده است. این در حالی است که بر اساس برخی آما تصاویر جعلی تیلور...
به گزارش خبرگزاری خبرآنلاین، تولید عکسهای جعلی با استفاده از هوش مصنوعی یکی از جنبههای خطرناک این فناوری است که به تازگی دامن تیلور سوئیفت خواننده مشهور آمریکایی را گرفته است. پس از اینکه عکسهای جعلی و مستهجن تیلور سوییفت میلیونها بار در فضای مجازی دیده شد و جنجال بسیاری به پا کرد، سیاستمداران آمریکایی را به این فکر انداخت که قوانین جدیدی برای جرمانگاری ایجاد جعل عمیق (دیپ فیک) تصویب کنند. تصاویر جعلی تیلور سوییفت در شبکههای اجتماعی از جمله تلگرام و ایکس (توییتر) منتشر شده بود. شبکه اجتماعی ایکس در بیانیهای اعلام کرد که این تصاویر را حذف و حسابهای مرتبط با آنها را محدود کرده است. این در حالی است که بر اساس برخی آما تصاویر جعلی...
به گزارش خبرگزاری خبرآنلاین، تولید عکسهای جعلی با استفاده از هوش مصنوعی یکی از جنبههای خطرناک این فناوری است که به تازگی دامن تیلور سوئیفت خواننده مشهور آمریکایی را گرفته است. پس از اینکه عکسهای جعلی و مستهجن تیلور سوییفت میلیونها بار در فضای مجازی دیده شد و جنجال بسیاری به پا کرد، سیاستمداران آمریکایی را به این فکر انداخت که قوانین جدیدی برای جرمانگاری ایجاد جعل عمیق (دیپ فیک) تصویب کنند. تصاویر جعلی تیلور سوییفت در شبکههای اجتماعی از جمله تلگرام و ایکس (توییتر) منتشر شده بود. شبکه اجتماعی ایکس در بیانیهای اعلام کرد که این تصاویر را حذف و حسابهای مرتبط با آنها را محدود کرده است. این در حالی است که بر اساس برخی...
افزایش انتشار اطلاعات نادرست امروزه چالشهای پیچیدهای ایجاد کرده است. آمارها نشان میدهد انتشار محتوای دستکاریشده در فضای رسانههای سنتی و دیجیتال گسترش یافته است. اطلاعات نادرست، از درمانهای غلط برای همهگیری کرونا گرفته تا اخبار جعلی که ناخواسته توسط شهروندان به اشتراک گذاشته میشود، به اکوسیستم اطلاعرسانی رسوخ کرده است. افزایش انتشار اطلاعات نادرست به طور عمده ناشی از مقاصد سیاسی، فناوری دیپفیک یا ویدئوهای ساختگی، تله کلیکی یا بیان محتوا با هدف فریب کاربر و مسائل دیگر است. نتیجه این مساله، کاهش اعتماد عمومی و ایجاد تهدید علیه گفتمان دموکراتیک است. چنین وضعیتی ایجاب میکند راهحلهایی ارائه شود که هم در عین بیان واقعیت، آزادی بیان نیز حفظ شود. هدف از این تحلیل آن است که با...
آیا ما در عصر جنگ روایتها به سرمی بریم؟ آیا توسعه بیش از پیش هوش مصنوعی بر گسترش این جنگ و شکل، نوع و قالب آن اثر خواهد گذاشت؟ دیپ فیک ها چه نقش و تاثیری در این میان می توانند داشته باشند؟ آیا محتواهای جعلی از تکنیکها و حتی ابزارهای این جنگ یا همان جنگ رسانه ای خواهند بود؟ تولید و نشر محتواهای جعلی چه تبعاتی دارند و نقاط آسیب رسانی آنها بیش از هر چیز کدامند؟ به جز آسیب رسانی آنها به اکوسیستم خبری و اطلاع رسانی چه مشکلاتی را حاصل می کنند؟ چه کسانی در نبردهای رسانه ای و غلبه بخشیدن به روایت مدنظر خود موفق ترند و علل این توفیق (از منظر آنها) چیست؟ تولید...
دیپ فیک (Deepfake) نوعی هوش مصنوعی است که برای ایجاد صداها، تصاویر و ویدیوهای جعلی استفاده میشود. نام دیپ فیک هم فناوری مورد استفاده و هم محتوای جعلی ناشی از آن را به خوبی توصیف میکند، چرا که به ساخت محتوای جعلی (Fake) با استفاده از یادگیری عمیق (Deep Learning) اشاره میکند. دیپ فیک ها اغلب محتوای موجود را تغییر میدهند، جایی که به عنوان مثال چهره یک نفر با دیگری عوض میشود. علاوه بر این همچنین محتوای کاملاً منحصر بهفرد هم ایجاد میکنند که در آن شخصی در حال انجام یا گفتن چیزی است که هرگز انجام نداده یا نگفته است. بزرگترین خطری که دیپ فیک ایجاد میکند، توانایی آنها در انتشار اطلاعات نادرست است. به عنوان...
آمریکا قصد دارد، با تدوین برخی سیاستها، استفاده از هوش مصنوعی و سایر رسانهها در راستای فریب مخاطبان را محدود کند. ایالت میشیگان آمریکا قصد دارد، با تدوین برخی سیاستها، استفاده از هوش مصنوعی و سایر رسانهها در راستای فریب مخاطبان را محدود کند. طبق قانونی که انتظار میرود در روزهای آینده توسط فرماندار این ایالت، گرچن ویتمر امضا شود، کمپینهای انتخاباتی ایالتی و فدرالی باید استفاده از هوش مصنوعی در فرایند تولید تبلیغات سیاسی را در میشیگان اعلام کنند. قانون مذکور، همچنین استفاده از محتوای دیپفیک بدون نشانهگذاری شفاف را تا ۹۰ روز پس از انتخابات نیز ممنوع است.بر اساس قانون میشیگان، هر شخص، کمیته یا نهادی که تبلیغات یک نامزد را بر عهده دارد، باید استفاده خود...
ایتنا - هند تصمیم دارد قوانینی برای نظارت بر «دیپ فیک» وضع کند. این در حالی است که نارندا مودی نخست وزیر این کشور نیز درباره این فناوری اظهار نگرانی کرده بود. آشوینی وایشناو وزیر فناوری اطلاعات این کشور در جلسهای با کارشناسان، گروه های صنعتی و شبکه های اجتماعی گفت: ما تصمیم داریم پیش نویس قوانین را در چند هفته آینده تکمیل کنیم. به گزارش ایتنا از مهر، دیپ فیک ویدئوهای ساخته شده با سیستم های هوش مصنوعی هستند که با تصاویر آنلاین آموزش دیده اند و بسیار واقعی به نظر می رسند. مودی در اظهارات خود در جلسه مجازی کشورهای گروه ۲۰ از رهبران جهان خواست به طور مشترک برای قانونمند سازی هوش مصنوعی اقدام...
به گزارش خبرگزاری مهر به نقل از رویترز، آشوینی وایشناو وزیر فناوری اطلاعات این کشور در جلسه ای با کارشناسان، گروه های صنعتی و شبکه های اجتماعی گفت: ما تصمیم داریم پیش نویس قوانین را در چند هفته آینده تکمیل کنیم. دیپ فیک ویدئوهای ساخته شده با سیستم های هوش مصنوعی هستند که با تصاویر آنلاین آموزش دیده اند و بسیار واقعی به نظر می رسند. مودی در اظهارات خود در جلسه مجازی کشورهای گروه ۲۰ از رهبران جهان خواست به طور مشترک برای قانونمند سازی هوش مصنوعی اقدام کنند و نسبت به تاثیرات منفی ویدئوهای دیپ فیک بر جامعه ابراز نگرانی کرد. فرایند پیش نویس کردن قوانین همچنین برای فردی که محتوا را آپلود می کند و هم...
به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از رویترز، دو منبع آگاه به رویترز گفتند که دولت هند روز جمعه به فیسبوک و یوتیوب هشدار داد که مکرراً به کاربران یادآوری کنند که قوانین محلی، آنها را از پست کردن محتوای شامل فحاشی یا اطلاعات نادرست منع میکند. این هشدار توسط معاون «راجیو چاندراسخار» وزیر فناوری اطلاعات هند، در جلسه ای غیرعلنی اعلام شد و او گفت که بسیاری از شرکت ها شرایط استفاده خود را با وجود قوانین 2022 به روز نکرده اند. این قوانین محتوای مضر برای کودکان یا جعل هویت شخص دیگری را ممنوع می کند. این در بحبوحه نگرانیهای فزاینده درباره دیپفیکها رخ میدهد و یکی از وزیران ارشد هند گفته که این...
با توجه به گسترش یافتن استفاده از فناوریهای مولد مبتنی بر هوش مصنوعی مانند «دیپفیک»، شرکتهای بزرگ فناوری سعی دارند از تاثیر احتمالی آنها بر انتخابات ۲۰۲۴ آمریکا جلوگیری کنند. به گزارش ایسنا و به نقل از فست کمپانی، با وجود فناوریهای مولد هوش مصنوعی که اکنون تقریبا برای همه در دسترس هستند، شاید فصل انتخابات سال آینده آمریکا فضای اطلاعاتی را به سالنی از آینه تبدیل کند که در آن هیچ کس مطمئن نباشد که چه محتوایی واقعی است و چه چیزی توسط هوش مصنوعی تولید شده است. اگر افراد سیاسی در سالهای ۲۰۱۶ و ۲۰۲۰ رسانههای اجتماعی را به سلاح تبدیل کردند، در سال ۲۰۲۳ ممکن است با دیپفیکها به این عرصه وارد شوند. آمریکاییها اکنون از...
ایتنا - ویدیوهای جعلی پدیده جدیدی نیستند، اما پیشرفت تکنولوژی آنها را کاملاً پیشرفته کرده است. این روزها و با توجه به پیشرفت فنون تصویربرداری و تصویر سازی، تولید ویدئو کلیپهای جعلی نیز افزایش یافته است. در این گزارش مجموعه نکاتی که باید در مورد ویدیوهای جعلی بدانید، معرفی شده است: ویدیوهای جعلی چیست؟ ویدیوهای جعلی ویدئوهایی هستند که با استفاده از تکنیکهای هوش مصنوعی (AI) برای تبدیل تصویر یا صدای یک فرد به تصویر یا صدای شخص دیگری ایجاد میشوند و به نظر میرسد که او چیزهایی را گفته یا انجام داده است که هرگز نگفته یا انجام نداده است. ویدئوهای جعلی چگونه ساخته میشوند؟ ویدیوهای جعلی با استفاده از ترکیبی از شبکههای رمزگذاری و رمزگشایی...
به گزارش خبرگزاری مهر به نقل از اینترستینگ انجینرینگ، این چالش در آمادگی های مربوط به کمپین های پیش از انتخابات ریاست جمهوری ۲۰۲۴ میلادی آمریکا اهمیت زیادی یافته است. این درحالی است که شکوفایی هوش مصنوعی مولد در سال گذشته به افزایش تولید تصاویر جعلی منجر شد که تا حد زیادی واقعی به نظر می رسیدند. در پی این روند تصاویر دیپ فیک یا محتوای دستکاری شده که شباهت زیادی به یک شخصیت واقعی دارند نیز گسترده تر شدند. چنین رویدادی ممکن است در بستر سیاسی برای متهم کردن رقبا به ارائه اظهار نظر یا انجام کاری استفاده شود که رای دهندگان را گمراه می کند. هفته گذشته گروه «پابلیک سیتیزن» از FEC پرسیده آیا می تواند قانونی در...
مطالعه ای تازه نشان داده است فناوری هوش مصنوعی Deepfake بعید است بتواند واقعیت را به طور کامل تشخیص دهد. محققان هشدار دادند از آن جایی که انسانها قادر به تشخیص بیش از یک چهارم نمونههای گفتاری تولید شده توسط هوش مصنوعی نیستند، به سختی میتوانند تشخیص دهند که دیپفیکها، ویدیوها یا کلیپهای صوتی جعلی هستند که شبیه صدا یا ظاهر یک شخص واقعی هستند.نگرانیها در مورد استفاده مجرمان و کلاهبرداران از فناوری هوش مصنوعی برای فریب مردم به منظور به دست آوردن پول افزایش یافته است.دانشمندان کشف کرده اند که مردم تنها در ۷۳ درصد مواقع میتوانند تفاوت بین گفتار واقعی و دیپ فیک را تشخیص دهند؛ در حالی که گفتار دیپ فیک اولیه ممکن است به هزاران...
به گزارش خبرنگار خبرگزاری علم و فناوری آنا، آیا میتوانید تشخیص دهید صدایی که هماکنون به گوش شما رسید تولیدشده توسط هوش مصنوعی بوده یا خیر؟ حتی زمانی که افراد میدانند ممکن است به گفتار تولیدشده توسط هوش مصنوعی گوش دهند، بازهم تشخیص قابلاعتماد صدای دیپ فیک برای هر دو زبان انگلیسی و چینی دشوار است. این بدان معناست که میلیاردها نفر از افرادی که زبانهای رایج دنیا را درک میکنند، بهطور بالقوه در معرض خطر کلاهبرداری یا اطلاعات نادرست قرار دارند. کیمبرلی مای در یونیورسیتی کالج لندن و همکارانش بیش از ۵۰۰ نفر را برای شناسایی دیپ فیکهای گفتاری در میان چندین کلیپ صوتی به چالش کشیدند. برخی کلیپها حاوی صدای اصیل یک گوینده زن بودند که جملات عمومی...
به گزارش خبرنگار خبرگزاری علم و فناوری آنا، آیا میتوانید تشخیص دهید صدایی که هماکنون به گوش شما رسید تولیدشده توسط هوش مصنوعی بوده یا خیر؟ حتی زمانی که افراد میدانند ممکن است به گفتار تولیدشده توسط هوش مصنوعی گوش دهند، بازهم تشخیص قابلاعتماد صدای دیپ فیک برای هر دو زبان انگلیسی و چینی دشوار است. این بدان معناست که میلیاردها نفر از افرادی که زبانهای رایج دنیا را درک میکنند، بهطور بالقوه در معرض خطر کلاهبرداری یا اطلاعات نادرست قرار دارند. کیمبرلی مای در یونیورسیتی کالج لندن و همکارانش بیش از ۵۰۰ نفر را برای شناسایی دیپ فیکهای گفتاری در میان چندین کلیپ صوتی به چالش کشیدند. برخی کلیپها حاوی صدای اصیل یک گوینده زن بودند که جملات عمومی...
درباره هوش مصنوعی و تاثیر آن بر تحولات جهان/ چرا نگرانیها درباره استفاده از هوش مصنوعی رو به افزایش است؟
جهان شاهد نوآوریهای سریعی در فناوری هوش مصنوعی بوده و همین موضوع باعث ایجاد نگرانیهایی شده است. استفاده بدخواهانه و مخرب از سیستمهای هوش مصنوعی میتواند باعث مرگ و ویرانی «وحشتناک» شود. آنتونیو گوترش خواستار تشکیل یک نهاد جدید سازمان ملل برای مقابله با تهدیدات ناشی از این فناوری شد. گوترش گفت که استفاده مضر از هوش مصنوعی برای اهداف تروریستی، جنایی یا دولتی همچنین میتواند باعث «آسیب روانی عمیق» شود. وی میگوید که حملات سایبری مبتنی بر هوش مصنوعی عملیاتهای حافظ صلح سازمان ملل و عملیات بشردوستانه را هدف قرار میدهند. به گفته وی، استفاده بدخواهانه از سیستمهای هوش مصنوعی برای اهداف تروریستی، جنایی یا دولتی میتواند به سطوح وحشتناک مرگ و ویرانی، آسیبهای روانی گسترده و آسیبهای روانی...
به گزارش خبرنگار مهر، تولید دیپ فیک (deep fake) یکی از توانمندیهای هوش مصنوعی است که برای ایجاد تصاویر و ویدئو و صداهای متقاعدکننده جعلی استفاده میشود. این اصطلاح هم فناوری و هم محتوای گمراهکنندهای که تولید میکند را در بر میگیرد. دیپفیکها اغلب در مواردی که جای یک نفر با شخصی دیگر عوض میشود، محتوای منبع موجود را تغییر میدهند. آنها همچنین قادرند محتوایی کاملاً تازه ایجاد کنند که در آن شخصی در حال انجام یا گفتن مطلبی است که در واقعیت نگفته و صحت ندارد. بزرگترین خطری که دیپفیک ایجاد میکند، تواناییاش در انتشار اطلاعات نادرستی است که به نظر قابلاعتماد میآید. مورد دیگر نگرانیهایی است که در مورد احتمال دخالت دیپفیک در انتخابات و تبلیغات انتخاباتی مطرح...
خبرگزاری آریا- گیتس میگوید هوش مصنوعی میتواند منجر به مشکلاتی مانند رواج دیپفیک، الگوریتمهای غیرمنصفانه و تقلب در مدارس شود، اما این مشکلات قابل حل هستند.به گزارش خبرگزاری آریا،بیل گیتس، یکی از بنیانگذاران مایکروسافت به پتانسیل هوش مصنوعی معتقد است و اغلب روی این موضوع تأکید میکند که مدلهایی مانند ChatGPT مهمترین پیشرفت فناوری از زمان ظهور رایانههای شخصی هستند. بیل گیتس اشاره میکند که هرچند ظهور هوش مصنوعی میتواند منجر به مشکلاتی مانند رواج دیپفیک، الگوریتمهای غیرمنصفانه و تقلب در مدارس شود، اما مشکلات ناشی از این فناوری قابل حل هستند.گیتس در پست جدید وبلاگ خود با عنوان «خطرات هوش مصنوعی واقعی اما قابل کنترل هستند» نوشت: «در میان تمام چیزهایی که درباره هوش مصنوعی نوشته شده است...
دیجیاتو نوشت: گیتس میگوید هوش مصنوعی میتواند منجر به مشکلاتی مانند رواج دیپفیک، الگوریتمهای غیرمنصفانه و تقلب در مدارس شود، اما این مشکلات قابل حل هستند. «بیل گیتس»، یکی از بنیانگذاران مایکروسافت به پتانسیل هوش مصنوعی معتقد است و اغلب روی این موضوع تأکید میکند که مدلهایی مانند ChatGPT مهمترین پیشرفت فناوری از زمان ظهور رایانههای شخصی هستند. بیل گیتس اشاره میکند که هرچند ظهور هوش مصنوعی میتواند منجر به مشکلاتی مانند رواج دیپفیک، الگوریتمهای غیرمنصفانه و تقلب در مدارس شود، اما مشکلات ناشی از این فناوری قابل حل هستند. گیتس در پست جدید وبلاگ خود با عنوان «خطرات هوش مصنوعی واقعی اما قابل کنترل هستند» نوشت: «در میان تمام چیزهایی که درباره هوش مصنوعی نوشته شده است و این نوع نوشتهها کم هم...
به گزارش خبرگزاری صدا وسیما، رگولاتور( تنظیم کننده) اینترنت چین اولین لیست خود را از تامین کنندگان تایید شده فناوری "دیپفیک" منتشر کرده است، زیرا مقامات چینی به دنبال این هستند که این فناوری به سرعت در حال تکامل را زیر چتر امنیت ملی قرار دهند. فهرست سفید که توسط اداره سایبری چین (CAC) منتشر شد، صاحبان ۴۱ الگوریتم( تنظیم کننده) از جمله غولهای فناوری تنست، بیدو و علیبابا را معرفی میکند. این الگوریتمها مطابق با مقررات اداری در مورد این فناوری برای سرویس اطلاعات اینترنتی که از ۱۰ ژانویه اجرایی و ثبت شدند. این مقررات ارائه دهندگان خدمات دیپ فیک را که میتوانند بر افکار عمومی یا جامعه تأثیر بگذارند را پوشش میدهد. دیپ فیک (جعل عمیق)، یک روش برای...
ایتنا - به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند. بهتازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکراتها در انتخابات ریاست جمهوری آمریکا، در رسانههای اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوریخواهان، سخنرانی میکند و میگوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.» هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوقالعاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاستجمهوری ایالات متحده به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند. ویدیوی هیلاری کلینتون،...
به گزاش خبرگزاری صداوسیما به نقل از رویترز، هیلاری کلینتون در ویدئویی که در شبکههای اجتماعی منتشر شده، میگوید: من ران دیسانتیس را بسیار دوست دارم. او همان مردی است که این کشور به آن نیاز دارد. به رقابتهای ریاستجمهوری آمریکا در سال ۲۰۲۴ خوش آمدید، جایی که واقعیت قابل درک است. ویدئوهای دیپفیک از کلینتون و بایدن، (ویدئوهای واقع گرایانه و در عین حال ساختگی ایجاد شده توسط الگوریتمهای هوش مصنوعی) از جمله هزاران ویدئویی هستند که در شبکههای اجتماعی منتشر میشوند و واقعیت و داستان را در دنیای دو قطبی شده سیاست آمریکا ادغام میکنند. براساس مصاحبههای رویترز با دو نفر، در حالی که چنین ویدئوهایی چندین سال است که وجود دارد، در سال گذشته توسط تعدادی ابزار...
خبرگزاری آریا-رئیس مایکروسافت بزرگترین نگرانی در مورد هوش مصنوعی را دیپ فیک و محتوای نادرست که واقعی به نظر میرسد، عنوان کرد.به گزارش سرویس علمی آریا،رئیس مایکروسافت میگوید تقلبهای عمیق بزرگترین نگرانی هوش مصنوعی هستندبه گزارش خبرگزاری صداوسیما به نقل از رویترز، برد اسمیت، رئیس مایکروسافت گفت: بزرگترین نگرانی من در مورد هوش مصنوعی، دیپ فیک و محتوای نادرست که واقعی به نظر میرسد، است.اسمیت در سخنرانی در واشنگتن با هدف پرداختن به این موضوع که چگونه میتوان هوش مصنوعی را به بهترین شکل ممکن تنظیم کرد، خواستار اقداماتی که باعث میشود مردم بدانند چه زمانی یک عکس یا ویدئو واقعی است و چه زمانی برای افداف خطرناک، از طریق هوش مصنوعی شده، شد.او گفت: ما به طور جدی...
پلیس چین فردی را به جرم تولید محتوای دیپ فیک با استفاده از چت GPT دستگیر و براساس تصمیم مقامات قضایی این کشور روانه زندان کرد. گروه علمی و فناوری خبرگزاری برنا؛ مردی که خبری جعلی درباره تصادف یک قطار در چین و کشته شدن ۹ نفر منتشر کرده بود، توسط پلیس چین دستگیر شد. این دستگیری نخستین تلاش دولت چین برای اجرای قانون، تنظیم و کنترل استفاده از هوش مصنوعی محسوب میشود. این خبر جعلی از سوی بیش از ۲۰ حساب در یک سکوی وبلاگنویسی متعلق به شرکت بایدو منتشر شده است و بیش از ۱۵ هزار نفر آن را دیدهاند. این مجرم به اتهام تولید محتوای جعلی به وسیله فناوری جعل عمیق یا دیپ فیک بازداشت شده است....
فناوری دیپفیک و تولید تصاویر جعلی توسط هوش مصنوعی تشخیص حقیقت و دروغ را هر روز دشوارتر از دیروز میکند. به تازگی فیلمی جعلی با تصاویر تولید شده توسط هوش مصنوعی منتشر شده که نشان میدهد دوره دوم بایدن-هریس به چه آخرالزمانی تبدیل خواهد شد. به گزارش خبرآنلاین به نقل از فوربس، دیپفیک (Deep Fake) فناوری جدیدی است که در آن تصاویر و ویدیوهای دروغ، اما واقع گرایانه ساخته میشوند. امروزه ویدیوهای دیپفیک از بسیاری افراد مشهور ساخته شده و در فضای مجازی منتشر میشوند. با پیشروی بدون محدودیت این فناوری و عدم تشخیص آنها از ویدئوهای واقعی توسط کاربران، به زودی تشخیص مرز بین حقیقت و دروغ عملا غیرممکن خواهد شد. دیپفیکها با فریب دادن مردم در مورد افراد...
«دیپ فیک» یا جعل عمیق تکنولوژی مبتنی بر هوش مصنوعی است که استفاده از منجر به تولید ویدئو و اصوات جعلی میشود، فایلهایی که سبب میشود دیگر انسان به راحتی حتی توان اعتماد به گوش و چشم خود را هم نداشته باشد. گروه علمی و فناوری خبرگزاری برنا- علی پژوهش؛ فناوریهای مرتبط با هوش مصنوعی بعد از معرفی چتباتها توسط مایکروسافت بار دیگر بر سر زبانها افتادند، کاربران مختلف هیجانزده از صحبت با موجوداتی هستند که واقعیت وجودی ندارند. چتباتها البته برای همۀ جهان خوشایند نبودهاند، برای مثال گوگل به عنوان بزرگترین موتور جستجوی جهان نسبت به این فناوری حالت تدافعی گرفته است؛ چرا که پیشبینی میکند، این محصول جدید در آینده تهدیدی وجودی برای موتورهای...
ایتنا - سایتی که به طور مجازی عکس زنان را برهنه میکند، در هشت ماه نخست سال ۲۰۲۱، سیوهشت میلیون بازدیدکننده داشته است. مردی نزدیک پایه میکروفن نشسته است. اشک چشمانش را پر میکند. سرش را دودستی میگیرد. میگوید: «واقعا شرمآور است. زشت است، من شرمندهام.» همسرش پشت سر او اشکهایش را با دستمالی مچاله پاک میکند. به گزارش ایتنا و به نقل از ایندیپندنت، چند روز قبل، برندون ایوینگــ که دنبالکنندههایش در پلتفرم پخش آنلاین توییچ (Twitch) او را به نام اتریوک (Atrioc) میشناسندــ در جریان یک پخش زنده، صفحه مانتیورش را به اشتراک گذاشت. یکی از تبهای باز قابلمشاهده یک سایت پورنو پولی را نشان میداد که کارش تولید تصاویر جنسی با هوش مصنوعی یا «جعل...
به گزارش سرویس بین الملل خبرگزاری صداوسیما، پایگاه اینترنتی آنالیتیک اینسایت با اشاره به خطرات فناوری نسبتاً جدید دیپ فیک راههایی برای جلوگیری از آثار منفی آن بر افراد و جوامع پیشنهاد کرد. حال که استفاده از فناوری دیپ فیک (جعل عمیق) گستردهتر شده است، مقابله با سوءاستفاده احتمالی از این ابزار قدرتمند حیاتی است. از فیلمها و عکسهایی که با استفاده از فناوری دیپ فیک ایجاد میشود میتوان برای اهداف مختلف، از جمله سرگرمی و آموزش استفاده کرد. با این حال، این فیلمها و تصاویر را میتوان برای انتشار اطلاعات جعلی و گمراه کننده، انتشار فیلمها و عکسهای جعلی از افراد و دیگر اشکال سوءاستفاده به کار برد. برای مقابله با سوءاستفاده از این فناری میتوان تدابیری اتخاد...
چین قصد دارد تا نخستین بسته از مقررات سختگیرانه خود درباره تولید و انتشار ویدیوهای جعلی (دیپ فیک) را اجرا کند خبرگزاری برنا- گروه علمی و فناوری؛ نخستین بسته از مقررات چین برای مقابله با ویدیوهای جعلی یا دیپ فیک قرار است که طی ماه ژانویه منتشر شود، اقدامی که باید آن را تلاشی از سوی دولت این کشور برای افزایش نظارت بر انتشار محتوا در فضای مجازی قلمداد کرد. رسانه سیانبیسی آمریکا در ادامه گزارش خود میآورد؛ دیپ فیکها نوعی از فایلهای تصویری هستند که برای ساخت یا تغییر آنها از هوش مصنوعی استفاده شده است. به گزارش برنا این ویدیوها کاربردهای مختلفی به خصوص در عرصه عملیات روانی دارند، برای مثال تصور کنید که انتشار یک ویدیو جعلی...
چین قصد دارد قوانین سختگیرانهتری برای فناوری دیپ فیک اجرا کند. رگولاتور فضای سایبری چین اعلام کرد قوانین جدید برای تهیه کنندگان محتوا که دادههای مربوط به صورت و صدا را تغییر میدهند از ۱۰ ژانویه ۲۰۲۳ میلادی اجرا میشود. به نظر میرسد این کشور سعی دارد سختگیریهای بیشتری برای فناوری «دیپ فیک» و سرویسهای آن اعمال کند.اداره فضای سایبری چین (CAC) این قوانین در اواخر دیروز صادر کرد که در مقابل جعل هویت افراد با دیپ فیک بدون رضایت آنها محافظت میکند. دیپ فیک در حقیقت فناوری است که عکسها را طوری دستکاری میکند که به طور مجازی با نمونه اصلی غیر قابل تمایز هستند و میتوان به آسانی از آنها برای دستکاری واقعیت یا اخبار جعلی استفاده...
اگر موفق به رصد اخبار سرویس علمی و فناوری نشدهاید، در ادامه لینک خبرهای پربازدید از نگاه کاربران را برای شما به نمایش گذاشتهایم. تاثیرات باکتری روده بر اختلالات روانی طبق تحقیقات دانشمندان، برخی از باکتریها ممکن است علائم افسردگی را تشدید کنند. شاخص کیفیت هوا در تهران ناسالم برای تمام گروههای سنی رئیس گروه سلامت هوا و تغییر اقلیم وزارت بهداشت گفت: بیماران قلبی، تنفسی، مادران باردار، سالمندان و بیماران دیابتی در سطح شهر تردد نداشته باشند. افزایش قیمت برخی از داروها با موافقت سازمان غذا و دارو + اسامی داروها افزایش قیمت برخی از اقلام دارویی، با پیشنهاد شرکتهای تولیدی و موافقت سازمان غذا و دارو همراه شده است. اجتناب از درمانهای خانگی برای خشکی پوست عضو...
روزانه در سایت «نبض فناوری» گزیدهای از آخرین اخبار و مطالب جذاب پیرامون اخبار فناوری، استارتاپها و رویدادهای حوزه تکنولوژی تهیه و منتشر میگردد. گزارش کامل از گزیده خبرهای امروز «نبض فناوری» ( https://nabzefanavari.ir ) را با کلیک بر تیتر آن بخوانید. چین قوانین دیپ فیک را اجرایی می کند آخرین وضعیت بازار رمزارزها در جهان ( 21 آذر 1401 ) آپدیت اندروید 13 برای سامسونگ گلکسی M13 5G منتشر شد معرفی تغییرات در سرچ گوگل
ایتنا - رگولاتور فضای سایبری چین اعلام کرد قوانین جدید برای تهیه کنندگان محتوا که داده های مربوط به صورت و صدا را تغییر می دهند از ۱۰ ژانویه ۲۰۲۳ میلادی اجرا می شود. به نظر می رسد چین سعی دارد سختگیری های بیشتری برای فناوری «دیپ فیک » و سرویس های آن اعمال کند. به گزارش ایتنا از مهر، اداره فضای سایبری چین (CAC) این قوانین در اواخر دیروز صادر کرد که در مقابل جعل هویت افراد با دیپ فیک بدون رضایت آنها محافظت می کند. دیپ فیک در حقیقت فناوری است که عکس ها را طوری دستکاری می کند که به طور مجازی با نمونه اصلی غیر قابل تمایز هستند و می توان به آسانی...
دریافت 923 KB ویدیویی در اینترنت به اشتراک گذاشته شده است که تصویر یک زن بازیگر واقعی و یک دیپفِیک (جعل عمیق) تولیدشده توسط هوش مصنوعی را به نمایش میگذارد و کاربران باید تشخیص دهند کدامیک واقعی است. کاربران به این نتیجه رسیدند که تصویر جعلی بسیار قانعکننده بهنظر میرسد. در این کلیپ کوتاه که در توییتر به اشتراک گذاشته شده است، الیزابت اولسن (Elizabeth Olsen)، که تصویرش با هوش مصنوعی تولید شده است، در یک طرف و اسکارلت جوهانسون (Scarlett Johansson) در طرف دیگر حضور دارد. هر دوی آنها در حال صحبتکردن هستند و حرکات و مدل موی آنها به هم شباهت دارد. بسیاری از کاربران توییتر از اینکه هر دوی آنها کاملاً واقعی به نظر میرسند، شگفتزده شدهاند؛...
کلیپی در شبکههای مجازی منتشر شده است که تصویر یک بازیگر زن و یک دیپفِیک (تصویر تولیدشده با هوش مصنوعی) را در کنار هم به نمایش میگذارد. شباهت این دو به یکدیگر، باعث شگفتی و در عین حال ترس کاربران از آینده شده است. به گزارش گروه علم و آموزش ایران اکونومیست از وبگاه دِیلی مِیل (Daily Mail)، ویدیویی در اینترنت به اشتراک گذاشته شده است که تصویر یک زن بازیگر واقعی و یک دیپفِیک (جعل عمیق) تولیدشده توسط هوش مصنوعی را به نمایش میگذارد و کاربران باید تشخیص دهند کدامیک واقعی است. کاربران به این نتیجه رسیدند که تصویر جعلی بسیار قانعکننده بهنظر میرسد. در این کلیپ کوتاه که در توییتر به اشتراک گذاشته شده است، الیزابت اولسن (Elizabeth...
در سال ۱۹۱۷، کمی پس از اختراع دوربینهای شخصی، تصاویری تکاندهنده از کودکانی که در کنار ارواح یا موجودات اساطیری قرار داشتند، در سرتاسر دنیا منتشر شدند! صحت این تصاویر توسط تعدادی از متخصصین آن زمان تایید شدند و آرتور کونان دویل، نویسنده سرشناس رمانهای علمی تخیلی و معمایی هم به گسترش مفاهیم برگرفته از این تصاویر کمک کرد. چندین دهه بعد، کودکان حاضر در این تصاویر که به افرادی میانسال تبدیل شده بودند تایید کردند که این تصاویر تماما ساختگی بوده و با سرهم کردن قطعات مختلف کاغذ ساخته شده بودند. بنابراین تاریخچه انتشار تصاویر تقلبی با هدف سرگرمی، کلاهبرداری یا ترساندن افراد، قدمتی به اندازه دوربینهای همراه دارد! در تمام این سالها میل انسان به ساخت تصاویر مختلف...
آفتابنیوز : هفته گذشته گزارش شد که ویلیس امتیاز بازآفرینی دیجیتال چهرهاش را به یک کمپانی دیپفیک روسی موسوم به دیپفیک فروخته است. ویلیس در ماه مارس گذشته در پی ابتلا به آفازی از بازیگری بازنشسته شد. با این حال نمایندگان ویلیس به «بیبیسی» میگویند: «شایعه فروش امتیاز نادرست است... بروس نمیتواند هیچ امتیازی را به هیچکس بفروشد، این امتیاز به صورت پیشفرض به خودش تعلق دارد.» «کلایدر» ادعا کرده بود که ویلیس پس از آزمایش این تکنولوژی برای یک تیزر تلویزیونی روسی با این قرارداد موافقت کرده است: «از دقتی که شخصیتم پیدا کرده بود راضی بودم. یک مینی-فیلم در ژانر اکشن-کمدی معمول من است. به نظر من، فرصتی عالی است برای بازگشت به گذشته. با ظهور این تکنولوژی...
به گزارش خبرگزاری خبرآنلاین، چندی پیش خبری به صورت گسترده در رسانه منتشر شد که بر اساس آن بروس ویلیس حق استفاده از چهرهاش را به یک کمپانی دیپفیک فروخته است. در پی جنجالهایی که با انتشار این خبر به پا شد، سخنگوی بروس ویلیس دست به کار شد و اعلام کرد که این بازیگر هیچ قراردادی با این کمپانی نبسته است. بیشتر بخوانید: فیلم | بروس ویلیس بازیگر فیلمهای جان سخت «چهرهاش را فروخت» کمپانی دیپفیک هم اعلام کرد که بروس ویلیس مالک تمام حقوق چهره خود است. ویلیس چند ماه پیش پس از ابتلا به بیماری زبانپریشی از دنیای بازیگر خداحافظی کرد. فناوری دیپفیک با استفاده از هوش مصنوعی و یادگیری ماشین ویدئوهای...
به گزارش همشهری آنلاین، هفته گذشته گزارش شد که ویلیس امتیاز بازآفرینی دیجیتال چهرهاش را به یک کمپانی دیپفیک روسی موسوم به دیپفیک فروخته است. ویلیس در ماه مارس گذشته در پی ابتلا به آفازی از بازیگری بازنشسته شد. با این حال نمایندگان ویلیس به «بیبیسی» میگویند: «شایعه فروش امتیاز نادرست است... بروس نمیتواند هیچ امتیازی را به هیچکس بفروشد، این امتیاز به صورت پیشفرض به خودش تعلق دارد.» بوریس ویلیس دوباره به جان سخت باز میگردد؟ برد پیت بهترین نقش هایش را در این فیلم ها بازی کرده است | بازیگری که از عهده نقشهای متفاوت به خوبی بر میآید "دیپ فیک" کاری میکند که بازیگر مورد علاقهتان به زبان شما صحبت کند! «کلایدر» ادعا کرده بود که ویلیس پس...
به گزارش همشهری آنلاین، با این اقدام، بوریس ویلیس - Walter Bruce Willis که با نقش جان مککلین در فیلم جان سخت - Die Hard به شهرت رسید، به نخستین ستاره بازنشسته هالیوود تبدیل شد که شبیه خود را فروخت تا از آن برای ایجاد یک دوقلو دیجیتال از طریق فناوری جعل عمیق(ویدیوهای دیپ فیک) استفاده شود. دیپ فیک یا جعل عمیق تکنیکی برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است؛ ویدیوی جعلی، ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیتی نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است. به نوشته تلگراف، ویلیس حق فروش شبیه خود را با شرکت آمریکایی Deepcake امضا کرده است؛ این شرکت میتواند نسخههای...
سرویس جدید مجهز به هوش مصنوعی که می تواند پرتره ها را به سر سخنگو تبدیل کند، روز دوشنبه توسط D-ID معرفی شد. به گزارش خبرنگار گروه علمی و فناوری خبرگزاری برنا؛ سرویس جدید مجهز به هوش مصنوعی که می تواند پرتره ها را به سر سخنگو تبدیل کند، روز دوشنبه توسط D-ID معرفی شد. این اپلیکیشنهای سلفسرویس که Creative Reality Studio نامیده میشوند، میتوانند تصویر یک چهره را با گفتار به ویدیو تبدیل کنند. هدف این سرویس سازندگان محتوای تجاری ، واحدهای یادگیری و توسعه، بخشهای منابع انسانی، بازاریابان، تبلیغکنندگان و تیمهای فروش است، اما هر کسی میتواند این فناوری را در وبسایت D-ID امتحان کند. این نرم افزار به عنوان راهی برای متحرک سازی پرتره های قدیمی ارائه شد....
به گزارش فارس به نقل از البلد، بسیاری از کارشناسان نسبت به رشد سریع ویدئوهای جعل عمیق یا «دیپ فیک» هشدار می دهند. آنچه به عنوان فناوری جعل عمیق شناخته می شود، کپی های جعلی از چهره افراد است که کاملا طبیعی به نظر می رسد. در این ویدئوها از تکنیک های هوش مصنوعی برای تغییر چهره افراد استفاده می شود تا علاوه بر چهره، صدا نیز شبیه به واقعیت باشد. سایت کانورزیشن درباره این فناوری نوشته که ویدئوهای دیپ فیک به طرز وحشتناکی در شبکه های اجتماعی، به ویژه تیک تاک در حال پخش شدن هستند. از جمله ویدئوهای افراد مشهوری مانند تام کروز، بازیگر و سران کشورها مانند اوباما، رئیس جمهور سابق ایالات متحده که تاکنون میلیون ها...
به گزارش اقتصادآنلاین به نقل از باشگاه خبرنگاران، در حالی که افراد در حالت هوشیاری نمیتوانند تفاوت بین صورتهای واقعی و جعلی را تشخیص دهند، اما یافتههای دانشگاه سیدنی نشان میدهد مغز افراد دارای چنین توانایی هست. زمانی که صحبت از دیپ فیکها میشود، این مسأله به میان میآید که چطور میتوان واقعیت را از تقلب تشخیص داد؟ اما حال دانشمندان علوم اعصاب دانشگاه سیدنی راه جدیدی را برای این مسأله کشف کردند. آنها دریافتند ذهن افراد میتواند صورتهای جعلی ساخته شده بوسیله هوش مصنوعی را تشخیص دهد؛ حتی صورتهایی را که افراد نمیتوانند گزارش دهند کدام چهره واقعی و کدام جعلی است. تصاویر و ویدئو، صداها و متنهای دیپ فیک، به وسیله رایانه و برای گمراه ساختن شما و...
در حالی که افراد در حالت هوشیاری نمیتوانند تفاوت بین صورتهای واقعی و جعلی را تشخیص دهند، اما یافتههای دانشگاه سیدنی نشان میدهد مغز افراد دارای چنین توانایی هست. زمانی که صحبت از دیپ فیکها میشود، این مسأله به میان میآید که چطور میتوان واقعیت را از تقلب تشخیص داد؟ اما حال دانشمندان علوم اعصاب دانشگاه سیدنی راه جدیدی را برای این مسأله کشف کردند. آنها دریافتند ذهن افراد میتواند صورتهای جعلی ساخته شده بوسیله هوش مصنوعی را تشخیص دهد؛ حتی صورتهایی را که افراد نمیتوانند گزارش دهند کدام چهره واقعی و کدام جعلی است. تصاویر و ویدئو، صداها و متنهای دیپ فیک، به وسیله رایانه و برای گمراه ساختن شما و تحت تأثیر قرار دادن افکار عمومی طراحی...
اخیرا اطلاعیهای از سوی پلیس امنیت داخلی آمریکا FBI صادر شده است که میتواند هشداری جدی برای همۀ سلبریتیهای هنری و سیاسی جهان باشد به گزارش خبرنگار خبرگزاری برنا، بر اساس آخرین اطلاعیههای مرکز بررسی شکایات جرائم اینترنتی FBI، طی روزها و ماههای گذشته شکایتهای زیادی دربارۀ تلاش افراد برای جعل و استفاده از تصاویر، ویدیوها و ... جهت دستیابی به موقعیتهای شغلی به این مرکز میرسد.جعلی عمیق چیست؟Deepfakes یا جعل عمیق توسط مایکروسافت اینطور تعریف میشود؛ "عکسها، فیلمها یا فایلهای صوتی دستکاری شده توسط هوش مصنوعی (AI) با استفاده از روشهایی پیچیده که تمایز آنها نسبت به نمونۀ اصلی را دشوار میکند.رایج ترین دیپ فیک که این روزهای جهان، ساخت ویدیو با استفاده از جایگزینی تصاویر فردی مشهور با شخصی عادی...
ایتنا - دیپ فیک و اطلاعات شخصی سرقتی برای مقاصد بیشمار فریبنده از جمله فیشینگ و سرقت هویت، به کمک کلاهبرداران اینترنتی میآیند. مرکز شکایات جرایم اینترنتی در افبیآی در مورد مجرمان سایبری که برای درخواست موقعیتهای کاری از راه دور از دیپفیک و اطلاعات شخصی استفاده میکنند، هشدار داد. نقشهای مورد بررسی شامل فناوری اطلاعات و برنامهنویسی رایانه، پایگاه داده و عملکردهای شغلی مرتبط با نرمافزار است، دسترسی به اطلاعات حساس شرکت، مانند اطلاعات شخصی مشتری، دادههای مالی، پایگاههای اطلاعاتی شرکت یا اطلاعات اختصاصی هم از موارد نقضشده بود. به گزارش ایتنا از ایسنا، دیپفیک گزینه ترجیحی عوامل تهدید برای رسیدن به شغل دلخواه است. دیپفیک، ویدئوها، صداها یا تصاویری هستند که توسط هوش مصنوعی تقلید میشوند...
دیپ فیک و اطلاعات شخصی سرقتی برای مقاصد بیشمار فریبنده از جمله فیشینگ و سرقت هویت، به کمک کلاهبرداران اینترنتی میآیند. به گزارش ایران اکونومیست، مرکز شکایات جرایم اینترنتی در افبیآی در مورد مجرمان سایبری که برای درخواست موقعیتهای کاری از راه دور از دیپفیک و اطلاعات شخصی استفاده میکنند، هشدار داد. نقشهای مورد بررسی شامل فناوری اطلاعات و برنامهنویسی رایانه، پایگاه داده و عملکردهای شغلی مرتبط با نرمافزار است، دسترسی به اطلاعات حساس شرکت، مانند اطلاعات شخصی مشتری، دادههای مالی، پایگاههای اطلاعاتی شرکت یا اطلاعات اختصاصی هم از موارد نقضشده بود. دیپفیک گزینه ترجیحی عوامل تهدید برای رسیدن به شغل دلخواه است. دیپفیک، ویدئوها، صداها یا تصاویری هستند که توسط هوش مصنوعی تقلید میشوند و با تقلید از یک...
بهگزارش همشهری آنلاین بهنقل از کوینتلگراف، ایلان ماسک در توییتی نوشت «من به حمایت از دوجکوین ادامه خواهم داد». روز پنجشنبه، دادگاه منطقهای نیویورک شکایتی را علیه ایلان ماسک و شرکتهایش، اسپیس ایکس و تسلا، به دلیل طرح ادعای پانزی بودن رمرارز دوجکوین دریافت کرد. ترفند پانزی که ایلان ماسک در تبلیغ دوجکوین به آن متهم شده نوعی عملیات سرمایهگذاری کلاهبردارانه است. بسیاری از سیستمهای هرمی از این ترفند کلاهبردارانه استفاده میکنند. در این شکایت از ماسک ۲۵۸ میلیارد دلار غرامت خواسته شد و در عین حال از دادگاه درخواست شد تجارت دوجکوین را به عنوان قمار در ایالات متحده ممنوع کند. این شکایت در جامعه رمزارز با استقبال مواجه نشد و بسیاری از کارآفرینان به تمسخر آن پرداختند. واکنش...
ایتنا - طبق آپدیت آیین نامه اجرایی اتحادیه اروپا،گوگل، فیس بوک، توئیتر و دیگر شرکت های فناوری باید اقداماتی برای مقابله با دیپ فیک و حساب های کاربری جعلی در پلتفرم شان انجام دهند. پیش بینی میشود کمیسیون اتحادیه اروپا آیین نامه به روزرسانی شده درباره اخبار جعلی را به عنوان بخشی از اقدامات خود برای مقابله با این پدیده، روز پنج شنبه اعلام کند. به گزارش ایتنا از مهر، این اقدام در سال ۲۰۱۸ میلادی به عنوان یک رویه داوطلبانه اعلام شد و اکنون به یک قانون تبدیل می شود و مسئولیت اجرای آن بر عهده رگولاتورها و امضا کنندگان قانون است. قانون به روزرسانی شده مواردی مانند دیپ فیک و حساب های جعلی را کنترل...
به گزارش اقتصاد آنلاین به نقل از ایسنا، انتظار میرود کمیسیون اروپا در راستای مبارزه با جعل عمیق، کد رفتار بهروزشده درباره اطلاعات نادرست را روز پنجشنبه منتشر کند. این کد رفتار داوطلبانه که در سال ۲۰۱۸ معرفی کرد، اکنون به طرح تنظیم مشترک تبدیل خواهد شد و رگولاتورها و امضاکنندگان این کد، در مسئولیت مربوط به آن سهیم خواهند بود. کد رفتار بهروزشده به تشریح موارد رفتار فریبکارانه مانند دیپ فیک و حسابهای جعلی پرداخته است که امضاکنندگان، باید با آنها مقابله کنند. دیپ فیکها، جعلهای بسیار واقعی هستند که با استفاده از تکنیکهای رایانهای، ایجاد می شوند و باعث نگرانی جهانی به خصوص درباره استفاده از جعل عمیق در زمینه سیاسی شدهاند. کد رفتار بهروزشده همچنین به مقررات جدید...
گوگل، فیس بوک، توییتر و سایر شرکتهای فناوری باید اقداماتی را برای مقابله با دیپ فیک (جعل عمیق) و حسابهای دیپ فیک در پلتفرمهای خود انجام دهند، در غیر این صورت با جریمه سنگین اتحادیه اروپا روبرو خواهند شد. به گزارش ایران اکونومیست، انتظار میرود کمیسیون اروپا در راستای مبارزه با جعل عمیق، کد رفتار بهروزشده درباره اطلاعات نادرست را روز پنجشنبه منتشر کند. این کد رفتار داوطلبانه که در سال ۲۰۱۸ معرفی کرد، اکنون به طرح تنظیم مشترک تبدیل خواهد شد و رگولاتورها و امضاکنندگان این کد، در مسئولیت مربوط به آن سهیم خواهند بود. کد رفتار بهروزشده به تشریح موارد رفتار فریبکارانه مانند دیپ فیک و حسابهای جعلی پرداخته است که امضاکنندگان، باید با آنها مقابله کنند. دیپ...
شبکههای اجتماعی، فیسبوک، گوگل آلفابت و توئیتر باید اقداماتی را برای مقابله با اخبار جعلی در برنامههای خود انجام دهند یا بر اساس آییننامه قاره سبز به اتحادیه اروپا جریمههای سنگین بپردازند. به گزارش سایت رویترز، انتظار میرود کمیسیون اروپا برای مبارزه با اخبار جعلی، قانون خود را به روز رسانی کرده و آن را در دسترس شبکههای اجتماعی قرار دهد. این قانون برای اولین بار در سال ۲۰۱۸ تنظیم شده بود که در حال حاضر برای مقابله با این نوع اخبار به یک طرح نظارتی تبدیل و مسئولیت آن بین تنظیمکنندهها و امضاکنندگان تقسیم شده است. قانون به روز شده نمونههایی از رفتارهای دستکاری مانند دیپ فیک و حسابهای جعلی را بیان میکند که امضاکنندگان باید با آنها...
به گزارش خبرگزاری مهر به نقل از رویترز، پیش بینی می شود کمیسیون اتحادیه اروپا آیین نامه به روزرسانی شده درباره اخبار جعلی را به عنوان بخشی از اقدامات خود برای مقابله با این پدیده، روز پنج شنبه اعلام کند. این اقدام در سال ۲۰۱۸ میلادی به عنوان یک رویه داوطلبانه اعلام شد و اکنون به یک قانون تبدیل می شود و مسئولیت اجرای آن بر عهده رگولاتورها و امضا کنندگان قانون است. قانون به روزرسانی شده مواردی مانند دیپ فیک و حساب های جعلی را کنترل می کند. در سند مربوط به این دستورالعمل آمده است: امضا کنندگان باید با توجه به جدیدترین شواهد در مورد رفتارها و تاکتیک ها، تکنیک ها و رویه های (TTP) عوامل مخرب در...
به نظر می رسد گوگل سرویس دیپ فیک مبتنی بر هوش مصنوعی خود را بسته است. مدتی است که فعالان حوزه هوش مصنوعی به سرویسی دست یافته اند که دیپ فیک نام دارد و میتواند عکسها و فیلمها را به صورت جعلی، با دقت زیاد و بسیار شبیه به نمونه اصلی بسازد به گونهای که تشخیص آن توسط مخاطبان عام سخت بوده و با نمونههای اصلی اشتباه گرفته میشود.این سرویس شاید در موقعیتهایی بتواند مفید باشد، اما پس از دسترسی همگانی به آن، سوءاستفادههایی از این سرویس صورت گرفت؛ حتی تصور این موضوع هم سخت نیست که ساخت تصاویر و فیلمهای جعلی چقدر میتواند از نظر حقوقی و قضایی هم برای افراد دردسر ساز باشد.بر اساس شنیدهها گویا گوگل به...
مدتی است که فعالان حوزه هوش مصنوعی به سرویسی دست یافته اند که دیپ فیک نام دارد و میتواند عکسها و فیلمها را به صورت جعلی، با دقت زیاد و بسیار شبیه به نمونه اصلی بسازد به گونهای که تشخیص آن توسط مخاطبان عام سخت بوده و با نمونههای اصلی اشتباه گرفته میشود. این سرویس شاید در موقعیتهایی بتواند مفید باشد، اما پس از دسترسی همگانی به آن، سوءاستفادههایی از این سرویس صورت گرفت؛ حتی تصور این موضوع هم سخت نیست که ساخت تصاویر و فیلمهای جعلی چقدر میتواند از نظر حقوقی و قضایی هم برای افراد دردسر ساز باشد. بر اساس شنیدهها گویا گوگل به تازگی به مضرات این فناوری پی برده و سرویس دیپ فیک خود را برای...
به گزارش شفقنا از ایسنا، سرویس Colaboratory که به اختصار Colab خوانده میشود، یک منبع رایانشی آنلاین است که به محققان اجازه میدهد کد پایتون را مستقیما از طریق این مرورگر اجرا کنند و همزمان از منابع رایانشی رایگان شامل GPU ها برای انجام پروژههایشان استفاده کنند. به دلیل ماهیت چند هستهای GPUها، Colab برای آموزش پروژههای یادگیری ماشینی مانند مدلهای دیپ فیک (جعل عمیق) یا انجام تحلیل دیتا، ایده آل است. دیپ فیکها میتوانند آموزش داده شوند تا چهرهها را در کلیپهای ویدیویی تغییر دهند و حالات چهره واقعی اضافه کنند تا نتیجه کار واقعی به نظر برسد؛ هر چند که جعلی است. آنها برای انتشار اخبار فیک و ساخت کلیپهایی برای انتقام یا سرگرمی، مورد استفاده قرار می...
ایتنا - گوگل بیسر و صدا پروژههای دیپ فیک را در سرویس Colaboratory خود ممنوع کرد و به استفاده گسترده از منابع این پلتفرم برای هدف مذکور پایان داد. سرویس Colaboratory که به اختصار Colab خوانده میشود، یک منبع رایانشی آنلاین است که به محققان اجازه میدهد کد پایتون را مستقیما از طریق این مرورگر اجرا کنند و همزمان از منابع رایانشی رایگان شامل GPU ها برای انجام پروژههایشان استفاده کنند. به دلیل ماهیت چند هستهای GPUها، Colab برای آموزش پروژههای یادگیری ماشینی مانند مدلهای دیپ فیک (جعل عمیق) یا انجام تحلیل دیتا، ایده آل است. به گزارش ایتنا از ایسنا، دیپ فیکها میتوانند آموزش داده شوند تا چهرهها را در کلیپهای ویدیویی تغییر دهند و حالات چهره...
دیپفیکها، کلاهبرداریهای عاشقانه و کلاهبرداریهای رمزارزی، برخی از تاکتیکهای هک مورد استفاده مجرمان در سراسر جهان بهشمارمیروند. طی سه ماهه نخستِ سال ۲۰۲۲ شرکت خدمات امنیت سایبری جهانی NortonLifeLock گزارش داد که بیش از ۱۸میلیون حمله در هند و بیش از ۱۹۵۷۹۴ حمله روزانه را متوقف کرده است. به گزارش خبرنگار ایمنا، «نورتون» یک شرکت امنیت سایبری برای کاربران عادی اینترنتی است که راهحلهای حفاظتی دارد و در صنعت خود نیز پیشرو است. به گفته این شرکت، حدود ۶۰ هزار مورد تلاش برای فیشینگ و ۳۲ هزار مورد کلاهبرداری با پشتیبانی فنی بوده است؛ کلاهبردارها درحالحاضر از طرحهای دیپفیک و رمزارز برای دسترسی به اطلاعات مالی یا شخصی استفاده میکنند. به گفته NortonLifeLock، دیپفیکها، کلاهبرداریهای عاشقانه و کلاهبرداریهای رمزارزی، سه...
برخی از فناوریها بعدها برای اهداف مجرمانه استفاده شدهاند. دیپفیک نمونهای از چنین فناوریهایی محسوب میشود. برنامههای مبتنی بر هوش مصنوعی چهره فردی را با چهره دیگری در یک فیلم یا عکس جایگزین میکند. قربانی دیپفیکها اغلب افراد مشهور، سلبریتیها و سیاستمداران هستند. دیپ فیک ترکیبی از دو کلمه «Deep» و «Fake» است. دیپ به فناوری هوش مصنوعی که با نام یادگیری عمیق شناخته میشود اشاره دارد. فناوری دیپفیک در رسانههای مصنوعی برای تولید محتوای جعلی و جایگزین یا ترکیبکردن چهرهها و گفتار و دستکاری احساسات استفاده میشود. به عبارت دیگر، دیپفیک میتواند انجام کاری را توسط شخصی بهصورت دیجیتالی شبیهسازی کند و این در حالی است که آن شخص آن کار را انجام نداده است. موضوع دیپفیک سروصدای بسیاری...
ایتنا - رگولاتور فضای سایبری چین پیش نویس قوانینی را برای تهیه کنندگان محتوا صادر کرد که وضعیت استفاده از داده های مربوط به شناسایی چهره و صوت را دگرگون میکند. این جدیدترین اقدام برای مقابله با فناوری «دیپ فیک» و ایجاد یک فضای سایبری است که ارزش های چینی را ترویج می کند. به گزارش ایتنا از مهر، طبق اسناد منتشر شده در وب سایت اداره فضای سایبری چین، این قوانین در اصل فناوری های گسترده تری را در بر می گیرند مانند مواردی که با استفاده از الگوریتم ها متن، صوت و ویدئو تولید و اصلاح می کنند. هر پلتفرم یا شرکتی که از یادگیری عمیق یا واقعیت مجازی برای تغییر محتوای آنلاین استفاده...
به گزارش خبرگزاری مهر به نقل از رویترز، این جدیدترین اقدام برای مقابله با فناوری «دیپ فیک» و ایجاد یک فضای سایبری است که ارزش های چینی را ترویج می کند. طبق اسناد منتشر شده در وب سایت اداره فضای سایبری چین، این قوانین در اصل فناوری های گسترده تری را در بر می گیرند مانند مواردی که با استفاده از الگوریتم ها متن، صوت و ویدئو تولید و اصلاح می کنند. هر پلتفرم یا شرکتی که از یادگیری عمیق یا واقعیت مجازی برای تغییر محتوای آنلاین استفاده می کند باید به اخلاق و قوانین جامعه احترام بگذارد و تغییر ایجاد شده نیز باید در جهت سیاسی صحیح انجام شود. قوانین مذکور از جعل هویت افراد به وسیله تصاویر دیپ...
فرارو- «من آینده را نمیدانم من اینجا نیامدهام که به شما بگویم این ماجرا چگونه به پایان میرسد من اینجا آمدهام تا به شما بگویم چگونه آغاز میشود». این مونولوگ پایانی فیلم «ماتریکس» ساخته شده در سال ۱۹۹۹ میلادی بود زمانی که «کیانو ریوز» در نقش «نئو» هشداری جدی به ماشینهای کنترل کننده جهان داد، زیرا متوجه شده بود که بشریت در یک واقعیت شبیهسازی شده گرفتار شده است. به گزارش فرارو به نقل از بی بی سی ورلد؛ این فیلم در زمانی اکران شد که جامعه در آستانه انقلاب اینترنتی قرار داشت و در هزارهای مضطرب به سر میبرد. فیلم نه تنها به پیشرفتهای فناوری در آن دوره اشاره کرد بلکه پرسشهای گستردهای را در مورد اینترنت، آگاهی و...
یک فناوری جدید با هوش مصنوعی و با استفاده از زرق و برق چشمها تشخیص میدهد که ویدئو واقعی است یا با Deepfake ساخته شده است. به گزارش مشرق، یک ابزار جدید به لطف تجزیه و تحلیل قرنیهها قادر به تشخیص و تفکیک فناوری Deepfake از یک ویدئوی واقعی است. با این هوش مصنوعی دیگر هیچ چیز نمیتواند ما را فریب دهد. همیشه گفته شده که چشمها آینه روح هستند و به نظر میرسد که این ضرب المثل دوباره اثبات شده، زیرا هوش مصنوعی قادر است یک ویدئوی واقعی را از یک ویدئوی دیپ فیک متمایز کند. دیپ فیک به زبان ساده فناوری است که صورت ما را روی بدن فرد دیگری میگذارد. بسیاری این کار را برای سرگرمی یا...
به گزارش youm7؛ ویدئویی در شبکههای اجتماعی منتشر شده که فردی به نام یی لانگ ماسک در چین خودش را ایلان ماسک چینی معرفی میکند. کاربران نیز پس از انتشار این ویدئو به این فرد چینی لقب دوقلوی ایلان ماسک ، ثروتمندترین مرد جهان، و مدیرعامل شرکت تسلا و اسپیس ایکس را دادند. البته برخی از کاربران بر این باورند که ویدئوی منتشر شده نتیجه یک تعامل دیجیتالی روی ویدئو شخص دیگری است که با افزودن چهره واقعی ایلان ماسک روی چهره صاحب اصلی ویدئو و به صورت دیپ فیک ساخته شده است. کاربران میگویند با نگاه کردن به حرکات لبها و چشمها در فیلم میتوان به جعلی بودن فیلم پی برد. با این حال، کسانی که در دیپ فیک...
به گزارش خبرنگار حوزه دریچه فناوری گروه فضای مجازی باشگاه خبرنگاران جوان، اگر از علاقمندان به اخبار فناوری و دستگاههای مدرن هستید و امروز موفق به رصد اخبار سرویس فضای مجازی در حوزه دریچه فناوری نشدهاید، در ادامه لینک ۱۰ خبر پربازدید از نگاه کاربران را برای شما به نمایش گذاشتهایم. نمایش صفحه موبایل روی رایانه با کدام اپلیکیشن بهتر انجام میشود؟ برنامه هایی هستند که امکان نمایش و اجرای تلفن همراه را روی کامپیوترها با سیستم عامل های مختلف آسان می کنند که در این خبر به یکی از آن ها اشاره شده است. تاریخ رسمی عرضه ویندوز ۱۱ مشخص شد شرکت مایکروسافت رسما اعلام کرد که سیستم عامل دسکتاپ ویندوز ۱۱ در ماه اکتبر عرضه خواهد شد. ناسا برنامه ای...
به گزارش خبرنگار حوزه دریچه فناوری گروه فضای مجازی باشگاه خبرنگاران جوان، به نقل از آی ای؛ به تازگی گزارشی در پایگاه MIT Technology Review منتشر شده و در آن آمده که یک استارتاپ قصد دارد نسخه دیپ فیکی از چهره افراد را میخرد و با استفاده از نرم افزارهای هوش مصنوعی، محصولات و خدمات آموزشی را به مردم میفروشد. این استارتاپ از زمان تاسیس تاکنون حدود ۱۰۰ چهره ترکیبی ساخته و میخواهد این تعداد را افزایش بدهد. این شرکت اعلام کرده که برای فروش چهره و استفاده از آن در تبلیغات دیپ فیک، حتما نیازی به چهره زیبا نیست. بیشتر بخوانید برنامه هایی که دیپ فیک را به دنیای تلفن همراه آوردند صف کشیدن مردم برای شرکت در پروژه...
به گزارش گروه فیلم و صوت باشگاه خبرنگاران جوان، یک کمپانی، با پردازش تصاویر و هوش مصنوعی دیپ فیک، چند فیلم را دوبله کرد.در این روش، لحن و صدای بازیگران تغییر نمیکند، اما زبان آنها تغییر میکند؛ دیالوگها با حرکات دهان بازیگران هماهنگ میشود. بیشتر بخوانید اسب با هوشی که نقاشی میکشد! + فیلم کد ویدیو دانلود فیلم اصلی انتهای پیام/
آفتابنیوز : در حالی که ممکن است ما عادت کرده باشیم از فناوری موسوم به "جعل عمیق" برای طیف وسیعی از کارهای نسبتاً بیضرر استفاده شود، اما از این فناوری میتوان برای ایجاد محتوای مخرب نیز مانند انداختن صورت شخص دیگری در یک صحنه ناشایست یا آسیب رساندن به حرفه یک سیاستمدار استفاده کرد. تصاویری که مورد دستکاری "جعل عمیق" قرار میگیرند در واقع فیلمها یا عکسهای تغییر یافته دیجیتالی از چهره یک یا چند شخص با استفاده از هوش مصنوعی است که میتواند کاملاً واقعی به نظر برسد. این تصاویر به قدری میتوانند مخرب باشند که سال گذشته ایالت کالیفرنیا استفاده از این فناوری را در حوزه سیاست و پورنوگرافی ممنوع کرد. ما به راحتی با این فناوری...
به گزارش همشهری آنلاین، ایسنا به نقل از آیای، همه ما تاکنون فیلمهای خارجی را تماشا کردهایم که دوبله شدهاند و شاید دوبله، آن حسی را که باید از فیلم به ما منتقل شود، نتوانسته به خوبی منتقل کند. البته که صنعت دوبله در ایران بسیار متفاوت از اغلب کشورهای دیگر دنیا است، اما باز هم گاهی دیده میشود که صدای دوبله با لبهای بازیگران منطبق نیست. اکنون یک فناوری جدید "دیپ فیک"(deep fake) یا "جعل عمیق" به وجود آمده است که میتواند فیلمها را تقریباً به مانند اینکه زبان اصلی هستند، دوبله کند. این فناوری جدید مبتنی بر هوش مصنوعی است و میتواند انقلابی در نحوه ترجمه فیلمها به زبانهای دیگر ایجاد کند. این فناوری توسط شرکتی بریتانیایی به نام...