2024-04-29@10:58:21 GMT
۱۲۴ نتیجه - (۰.۰۰۱ ثانیه)
«اخبار جعل عمیق»:
بیشتر بخوانید: اخبار اقتصادی روز در یوتیوب
خبرگزاری علم و فناوری آنا؛ ویدئوها یا تصاویر جعل عمیق (دیپ فیک) با استفاده از هوش مصنوعی ساخته میشوند و گاهی آنقدر واقعی به نظر میرسند که تشخیص آنها از واقعیت دشوار است. این فناوری بارها مشکلساز شده و از آن برای انتشار اخبار و اطلاعات نادرست و فریب مردم استفاده کردهاند. با پیشرفت فناوری، تشخیص...
این توصیه بخشی از مجموعه دستورالعملهایی است که کمیسیون اروپا آن را در قالب قانون تعدیل محتوای فضای مجازی برای غولهای دیجیتال منتشر کرده تا آنها با خطراتی که انتخابات را تهدید میکند، از انتشار جمله اخبار نادرست، مقابله کنند. تعدیل محتوا عبارت از شناسایی محتویات همرسان شده در فضای مجازی و کامنتهای کاربران است...
ایتنا - در آستانه برگزاری انتخابات پارلمان اروپا در ماه ژوئن آینده، اتحادیه اروپا از شرکتهای بزرگ فناوری دیجیتال از جمله فیسبوک و تیکتاک خواست تا محتویات جعل عمیق (دیپفیک) ساخته شده با هوش مصنوعی را در فضای مجازی شناسایی کرده و هشدار دهند. این توصیه بخشی از مجموعه دستورالعملهایی است که کمیسیون اروپا...
به گزارش خبرگزاری صداوسیما، ویدئوها و تصاویر تولیدشده با هوش مصنوعی با اهداف سیاسی در سالی پر از انتخابات، میتوانند نتایج زیانباری به همراه داشته باشند. در همین حال برزیل تلاش دارد پیش از برگزاری انتخابات، برای این فناوری قانونگذاری کند. در کشوری با ۲۰۳ میلیون جمعیت که میزان تلفنهای همراه از جمعیت پیشی میگیرد،...
ایتنا - دیپفیکهای هوش مصنوعی اغلب برای ایجاد آسیب استفاده میشوند، اما روشهای موجود طراحی شده برای کاهش یا جلوگیری از تقلب باید برای محافظت در برابر این فناوری کافی باشد. در عصر دیجیتالی که در آن زندگی میکنیم، مرز بین واقعیت و فانتزی مبهم شده است. ظهور فناوری جعل عمیق (دیپ فیک)...
به گزارش خبرگزاری علم و فناوری آنا به نقل از رویترز، کارشناسان هوش مصنوعی و مدیران صنایع با امضای نامهای سرگشاده خواستار مقررات بیشتر در مورد جعل عمیق (دیپ فیک) شده و خطرات احتمالی آن را در این نامه متذکر شدهاند. این گروه از کارشناسان با همراهی اندرو کریچ (Andrew Critch)، متخصص هوش مصنوعی از...
جعل ویدئو، عکس و صدا با استفاده از فناوری هوش مصنوعی بهویژه برای افراد سرشناس به دردسری جدی تبدیل شده است. به گزارش آنا؛ «اخبار جعلی» از ۲۰۱۶ به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در ۲۰۲۳ ویدئوها و صداهای جعلی ساختهشده با هوش مصنوعی که به «جعل عمیق» (دیپ...
ایتنا - همانطور که فناوری دیپ فیک (جعل عمیق) پیشرفت کرده است، ابزارها و تکنیکهای طراحی شده برای شناسایی آنها نیز پیشرفت کرده است. در عصر دیجیتال، دیپ فیک به عنوان یک تهدید بزرگ برای اصالت محتوای آنلاین شناخته میشود. ویدیوهای تولید شده با هوش مصنوعی میتوانند به طور قانع کنندهای از افراد حقیقی...
به گزارش خبرآنلاین، یک کارمند مالی که در یک شرکت چند ملیتی در هنگ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپفیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. به نقل از یورونیوز، پلیس هنگ کنگ گفته است سارقان در این کلاهبرداری...
ایتنا - یک کارمند مالی که در یک شرکت چند ملیتی در هنگ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپفیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد. پلیس هنگ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر...
ایتنا - در مورد تماس تلفنی که احتمالا با استفاده از هوش مصنوعی صدای جو بایدن را شبیهسازی کرده بود هنوز جزئیات زیادی نمیدانیم. این تماس روز ۲۱ ژانویه دو روز پیش از انتخابات مقدماتی گرفته شد، و سعی داشت دموکراتها را از شرکت در انتخابات منصرف کند. مشخص نیست چه کسی پشت این...
زیسان: در مورد تماس تلفنی که احتمالا با استفاده از هوش مصنوعی صدای جو بایدن را شبیهسازی کرده بود هنوز جزئیات زیادی نمیدانیم. به گزارش زیسان به نقل از پولتیکو، این تماس روز ۲۱ ژانویه دو روز پیش از انتخابات مقدماتی گرفته شد، و سعی داشت دموکراتها را از شرکت در انتخابات منصرف کند. مشخص...
ایتنا - آمریکا قصد دارد انتشار و بهاشتراکگذاری عکسهای برهنه افراد را که به صورت دیجیتال دستکاری شدهاند به یک جرم فدرال تبدیل کند. جوزف مورل نماینده دموکرات ایالت نیویورک روز سهشنبه بار دیگر «لایحه جلوگیری از جعل عمیق تصاویر نقاط خصوصی بدن» را ارائه کرد. این لایحه بهاشتراکگذاری غیرمجاز عکسهای برهنهای را که...
بالاخره سیاست با همه بیپدر و مادری، نامردی، کثیف بودن و با وجود همه حرفهایی که پشت سرش میزنند، لابد خوبیهایی هم دارد. حداقلش این است که گاهی ممکن است برای مصالح جامعه بشری یکی دو قدم بردارد! یک نمونه آن، ماجرای «جعل عمیق» یا همان دیپفیک که ظاهراً آشش جوری شور شده که اهالی...
ایتنا - برخی از کارشناسان بر این باورند که در سال ۲۰۲۴ پیشرفتهای هراسانگیزی را از هوش مصنوعی شاهد خواهیم بود. از تولید محتوای جعلی و ساختگی تا بسیاری تواناییهای دیگر از جمله کاربردهای عملی چتجیپیتی. سال ۲۰۲۳ سالی مهم در تاریخ هوش مصنوعی بود. اما این تنها آغاز ماجرا بود. برخی از کارشناسان...
در حالی که تصاویر جعلی روز به روز متقاعد کنندهتر و گستردهتر میشوند، سازندگان دوربینها با فناوری جدیدی که میتواند صحت عکسها را تأیید کند، با این مشکل مقابله میکنند. نیکون، سونی و کانن در حال کار بر روی تعبیه یک امضای دیجیتال در دوربینهای خود هستند که به عنوان اثباتی بر اصل بودن و...
شرکتهای کانن، نیکون و سونی در حال کار بر روی تعبیه یک امضای دیجیتالی در دوربینهای خود هستند که به عنوان اثباتی بر اصل بودن و یکپارچگی تصاویر عمل میکند. به گزارش ایسنا و به نقل از آیای، در حالی که تصاویر جعلی روز به روز متقاعد کنندهتر و گستردهتر میشوند، سازندگان دوربینها با...
یکی از تواناییهای سیستمهای هوش مصنوعی جعل عمیق توانایی شبیهسازی صدای افراد، حتی بر اساس یک فایل ضبط شده کوتاه از صدای اصلی است که میتواند برای مقاصد شرورانه مورد سواستفاده قرار بگیرد. با این حال، یک نرمافزار جدید به نام ضدجعل(AntiFake) میتواند به جلوگیری از وقوع آن کمک کند. به گزارش ایران اکونومیست و...
فیلمها و تصاویر فریبنده ایجاد شده توسط هوش مصنوعی میتواند انتخابات را تحت تاثیر قرار دهد، باعث سقوط بازارهای سهام شود و شهرت افراد را نابود کند و محققان در حال توسعه روشهایی برای محدود کردن آسیب آن هستند. به گزارش ایسنا و به نقل از نیچر، ماه ژوئن سال جاری، در نبرد سیاسی...
گروه ارتباطات و فناوری اطلاعات خبرگزاری علم و فناوری آنا، فناوریهای مدرن از هوش مصنوعی گرفته تا ارتباطات بیسیم فوق سریع، در سالهای اخیر کار و زندگی مردم را متحول کردهاند. ضمن لذت بردن از راحتی این فناوریها باید به این نکته نیز توجه داشت که اگر به دست افراد نادرستی بیفتند، دردسرهای زیادی پیش...
مدیر عامل شرکت گوگل در مورد ویدئوهای «دیپ فیک»(جعل عمیق) هوش مصنوعی هشدار داده و گفته که میتواند آسیبهای زیادی ایجاد کند و گوگل عمدا قابلیتهای عمومی هوش مصنوعی بارد را محدود میکند. به گزارش ایران اکونومیست و به نقل از فاکسبیزنس، ساندار پیچای(Sundar Pichai)، مدیر عامل گوگل، زنگ خطر را در مورد خطرات استفاده...
به گزارش سرویس بین الملل خبرگزاری صدا و سیما؛ دولت انگلیس در لایحه امنیت برخط (online) هرگونه انتشار تصاویر و ویدئوهای ناشی از "جعل عمیق" (deepfake) را که بدون رضایت افراد، آنان را در این تصاویر و فیلمهای آزار دهنده نشان میدهد، ممنوع میکند.به گزارش خبرگزاری صدا و سیما از لندن، روزنامه گاردین نوشت در روش "جعل...
یک کارشناس امنیت سایبری چهار نگرانی در مورد هوش مصنوعی را عنوان کرده است. این نگرانیها در حالی عنوان میشوند که این فناوری همچنان در حال تکامل است. به نقل از روزنامه سان، امروزه هوش مصنوعی می تواند کارهایی مانند نوشتن مقاله، تولید کدهای پیچیده و خلاصه کردن اسناد طولانی را در چند ثانیه انجام...
یکی از دردسرهایی که فناوری جعل عمیق برای مردم، بهویژه افراد سرشناس، به وجود آورده است، ایجاد تصاویر و فیلمهای دروغین و گاه مستهجن از آنهاست. متاسفانه این مشکل گسترش پیدا کرده و گریبان افراد عادی را هم گرفته است. به گزارش خبرآنلاین، اخیرا پلیس FBI هشدار داده شکایتهای متعددی از افراد جامعه دریافت کرده...
چندین شبکه رادیو و تلویزیون روسیه پس از هک شدن، سخنان جعلی ولادیمیر پوتین رئیس جمهوری این کشور را پخش کردند که در آن پیغام جعلی، اعلام "وضعیت اضطراری" شده بود. به گزارش مشرق،دیمیتری پسکوف سخنگوی کاخ کرملین به خبرگزاری تاس گفت که رئیس جمهور پوتین هیچ سخنرانی اضطراری رادیو و تلویزیون در روز دوشنبه...
ایتنا - به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند. بهتازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکراتها در انتخابات ریاست جمهوری آمریکا، در رسانههای اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»،...
ایتنا - کارشناسان میگویند میلیاردها کاربر آیفون و گوشیهای اندروید در معرض خطر حملات هوش مصنوعی قرار دارند دارندگان گوشیهای هوشمند ممکن است در معرض خطر کلاهبرداری و خالی کردن حساب بانکی باشند. این نوع کلاهبرداریها عموما مبتنی بر روشهای هوش مصنوعی، تقلید صدا، تبلیغات تلهگذاری (فیشینگ) و همچنین فناوری ساخت تصاویر جعل عمیق...
به گزارش جام جم آنلاین، یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در مورد خطرات ظهور جعلهای عمیق واقعیتر هشدار داد. نیل ساهوتا، کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت میکند، گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است....
یکی از مشاوران هوش مصنوعی سازمان ملل متحد در یک گفتگو در مورد خطرات ظهور جعلهای عمیق واقعیتر هشدار داد. نیل ساهوتا(Neil Sahota) کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت میکند، گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است. دیپ فیکها تصویری آینهای...
ایتنا - بسیاری از هنرمندان دست انسان را یکی از پیچیدهترین چیزها برای طراحی در نظر میگرفتند باتوجه به اینکه یک تولیدکننده پیشگام تصویر هوش مصنوعی پیبرد که چگونه تصاویری واقعی از دست ایجاد کند، ممکن است یکی از بزرگترین نشانههای پنهان برای تشخیص یک تصویر جعل عمیق (دیپفیک)، رفع شده باشد. به...
دیپ فیک فناوری پیچیدهای است که ویدئو و صوتهای جعلی با استفاده از هوش مصنوعی تولید میکند، مهدی رضا برنا کارشناس هوش مصنوعی اعتقاد دارد که بهترین راه مقابله با این نوع از محتوا استفاده از فناوری یادگیری عمیق است. خبرگزاری برنا- گروه علمی و فناوری؛ دیپ فیک یا جعل عمیق یکی از معضلات جدید...
ایتنا - مقامهای ایالات متحده در گذشته هشدار دادهاند که کشورهایی مانند روسیه به دستکاری رسانههای اجتماعی متوسل میشوند. رهبرانی که بر برخی از محرمانهترین ماموریتهای ارتش ایالات متحده نظارت دارند، جویای نوع جدید و بیسابقهای از جنگافزارند: «جعلعمیق»، که یادگیری ماشینی را برای ایجاد ویدیوهای جعلی واقعنما به کار میگیرد. به گزارش...
ایتنا - سایتی که به طور مجازی عکس زنان را برهنه میکند، در هشت ماه نخست سال ۲۰۲۱، سیوهشت میلیون بازدیدکننده داشته است. مردی نزدیک پایه میکروفن نشسته است. اشک چشمانش را پر میکند. سرش را دودستی میگیرد. میگوید: «واقعا شرمآور است. زشت است، من شرمندهام.» همسرش پشت سر او اشکهایش را با دستمالی...
به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس به نقل از سی ان بی سی، دیپ فیک ها تصاویر یا ویدئوهایی هستند که به صورت مصنوعی تولید یا تغییر یافته اند و با استفاده از نوعی هوش مصنوعی ساخته می شوند. از این فناوری می توان برای تغییر یک ویدیوی موجود استفاده کرد، برای...
طبق یک مطالعه جدید، حملات سایبری مبتنی بر هوش مصنوعی در جعل هویت، تاکتیکی که اغلب در فیشینگ استفاده میشود، حرفهای میشوند و میتوانند آسیبرسان باشند. به گزارش ایران اکونومیست و به نقل از سایبرنیوز، یک گزارش تحلیلی سایبری جدید هشدار داده است که حملات سایبری فعال هوش مصنوعی که تاکنون کاملاً محدود بودهاند، ممکن...
به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از رویترز، رگولاتور فضای سایبری چین گفته: قوانین جدید این کشور برای ارائه دهندگان محتوا که دادههای چهره و صدا را تغییر میدهند، از 10 ژانویه 2023 (20 دی) اجرایی میشود. به نظر می رسد چین سعی دارد سختگیری های بیشتری را برای فناوری جعل...
به گزارش همشهری آنلاین، با این اقدام، بوریس ویلیس - Walter Bruce Willis که با نقش جان مککلین در فیلم جان سخت - Die Hard به شهرت رسید، به نخستین ستاره بازنشسته هالیوود تبدیل شد که شبیه خود را فروخت تا از آن برای ایجاد یک دوقلو دیجیتال از طریق فناوری جعل عمیق(ویدیوهای دیپ فیک)...
به گزارش خبرنگار گروه علم و پیشرفت خبرگزاری فارس به نقل از نکست وب، پژوهشگران یک راه ساده و شگفتآور برای شناسایی تماسهای ویدیویی جعل عمیق کشف کردهاند. تنها کافی است از فرد مظنون بخواهید سرش را به طرفین بچرخاند. این ترفند طی هفته جاری توسط Metaphysic.ai، ابداع شد که یک استارتآپ مستقر در لندن...
ایتنا - دانشمندان میگویند که درک نحوه تشخیص جعل عمیق بهوسیله مغز، به ایجاد الگوریتمهایی برای شناسایی آنلاین آنها کمک میکند. مطالعهای جدید نشان میدهد مغز انسان قادر است بهطور ناخودآگاه جعل عمیق (دیپ فیک) را تشخیص دهد که ممکن است به تولید ابزاری برای جلوگیری از انتشار اطلاعات نادرست کمک کند. دیپ...
گوگل، فیس بوک، توییتر و سایر شرکتهای فناوری باید اقداماتی را برای مقابله با دیپ فیک (جعل عمیق) و حسابهای دیپ فیک در پلتفرمهای خود انجام دهند، در غیر این صورت با جریمه سنگین اتحادیه اروپا روبرو خواهند شد. به گزارش ایران اکونومیست، انتظار میرود کمیسیون اروپا در راستای مبارزه با جعل عمیق، کد رفتار...