در دنیایی که هر کسی می تواند هر کسی باشد ، هوش مصنوعی Pi-Labs می داند چه چیزی واقعی است

[ad_1] امروز ، در عصر جعل هویت ، تقلبی های دیجیتال در حال عبور از کلاهبرداری در زندگی واقعی هستند و روش های تأیید سنتی دیگر کافی نیستند. هرچه هوش مصنوعی باهوش تر می شود ، کلاهبرداران نیز همین کار را انجام دهید. در زمانی که هرکسی با ابزار مناسب می تواند وانمود کند که
[ad_1]
امروز ، در عصر جعل هویت ، تقلبی های دیجیتال در حال عبور از کلاهبرداری در زندگی واقعی هستند و روش های تأیید سنتی دیگر کافی نیستند.

هرچه هوش مصنوعی باهوش تر می شود ، کلاهبرداران نیز همین کار را انجام دهید. در زمانی که هرکسی با ابزار مناسب می تواند وانمود کند که شخص دیگری است ، نه فقط در صدا ، بلکه حتی در یک تماس ویدیویی ، یک راه اندازی هندی در حال ساخت فناوری است تا جعل ها را مشخص کند و به عقب برگردد.
PI-LABS مبتنی بر Pune از AI برای ضرب و شتم AI با ابزاری طراحی شده برای افشای محتوای جعلی و بازگرداندن اعتماد به آنچه می بینیم و می شنویم بصورت آنلاین استفاده می کند.
در تعامل انحصاری با هدف، Ankush Tiwari ، بنیانگذار و مدیرعامل این شرکت ، ابزار AI خود را “معتبر” گسترش می دهد ، که در حال حاضر به بانک ها ، اجرای قانون و سایر بخش های حساس به امنیت کمک می کند و بین رسانه های واقعی و دستکاری شده تمایز قائل است.
این حمله فقط چند کلیک فاصله دارد
در طی یک تماس نمایشی زنده ، تیم فناوری Pi-LABS نشان داد که چقدر می توان حملات عمیق را انجام داد. در عرض چند ثانیه ، یک عضو تیم به تام کروز بازیگر هالیوود تبدیل شد و فقط با یک تصویر استاتیک و چند کلیک با استفاده از آن. به زودی ، جعل هویت واقع بینانه که می تواند نه تنها مردم بلکه سیستم های امنیتی موجود را نیز فریب دهد.
Naman Kohli ، مدیر بازاریابی در PI-LABS گفت: “ما این عمیق را در کمتر از دو روز ایجاد کردیم.” “این حتی آزمایش تشخیص زندگی را در سیستم های KYC ویدیویی که بانک ها از آنها استفاده می کنند ، گذراند.”
این نوع حملات دیگر فرضی نیستند. Tiwari یک “تست Litmus” شخصی را بازگو کرد که او با یک تماس ویدیویی Deepfake به مادر خود دوید ، که نتوانست بگوید این او نبود.
سناریوهایی مانند این اکنون در موارد کلاهبرداری رایج هستند. جنایتکاران کودک یا رئیس شخصی را در تماس با او جعل می کنند و آنها را متقاعد می کنند که پول ارسال کنند. طبق گزارش ها ، یک مورد شامل ۲۵ میلیون دلار پس از یک تماس ویدیویی جعلی از یک مدیرعامل است.
با تأیید اعتبار ، با AI مبارزه کنید
برای مقابله با این تهدید رو به رشد ، PI-LABS توسعه یافته معتبر ، یک موتور تشخیص که فریم محتوای رسانه را بر اساس قاب تجزیه و تحلیل می کند تا بخش های دستکاری شده را شناسایی و برجسته کند. کاربران می توانند یک کلیپ ویدئویی ، تصویر یا صوتی را بارگذاری کرده و گزارش مفصلی دریافت کنند که پرچم هر محتوای مصنوعی را نشان می دهد.
موتور فقط محتوای جعلی را پرچم نمی کند بلکه توضیح می دهد که چرا. با استفاده از مدلهای آموزش داده شده در میلیون ها چهره از جغرافیاها و فرهنگهای متنوع ، از جمله زمینه های خاص هندی مانند عمامه و بادی، تأیید اعتبار حرکات پیکسل غیر طبیعی ، ناسازگاری در همگام سازی چشم و لب و سایر سیگنال های ظریف را مشخص می کند.
کوهلی گفت: “هدف ما AI قابل توضیح است.” “نه فقط گفتن این جعلی است ، بلکه نشان می دهد که چرا و چگونه.”
این ابزار می تواند در حین تماس های ویدیویی یا پس از پایان تماس ، در زمان واقعی اجرا شود. این همچنین قابل تنظیم است ، و به مشتریان این امکان را می دهد تا تنظیمات مبتنی بر ابر یا پیش فرض را انتخاب کنند ، ویژگی ای به ویژه برای آژانس های اطلاعاتی و دفاعی از ارسال داده ها در خارج از محیط های امن استفاده می کند.
سیستم در فیلم متوقف نمی شود. همچنین صوتی را تجزیه و تحلیل می کند ، گفتار مصنوعی را تشخیص می دهد و آن را به ابزارهای مورد استفاده برای تولید آن باز می گرداند ، خواه گفتاری ، توصیف یا هر بستر کلونینگ صوتی دیگری باشد.
باید در هند ساخته شود
بر خلاف بسیاری از راه حل های جهانی که با زمینه هندوستان مبارزه می کنند ، PI-LABS بومی سازی را در اولویت قرار داده است. این تیم با استفاده از داده هایی که شامل لباس های مذهبی و منطقه ای است ، در تلاش برای جلوگیری از پرچم گذاری کاذب ناشی از عناصر فرهنگی نادرست ، تأیید کرد.
“بسیاری از ابزارهای خارجی پرچم یک عمامه یا تیکا به عنوان دستکاری ، “کوهلی توضیح داد.” اما مدل ما زمینه را می فهمد. “
تمرکز این شرکت در حال حاضر بر خدمات اجرای قانون ، دفاع و مالی بسیار تیز است. اینها بخش هایی هستند که اشتباه کردن کارها می تواند عواقب جدی داشته باشد. با همکاری شرکت هایی مانند Finneca Solutions و Accops مبتنی بر Pune ، PI-LABS به امنیت فرایندهای KYC ویدیویی کمک می کند که به طور فزاینده ای توسط کلاهبرداران مورد هدف قرار می گیرند.
چیزهای بیشتری برای آمدن وجود دارد. این استارتاپ در حال کار بر روی ادغام blockchain برای شفافیت و قابلیت ردیابی بهتر ، نه برای رمزنگاری ، بلکه برای ورود و تأیید نتایج تشخیص به روشی ضد دستکاری است. Tiwari گفت: “همه چیز در مورد تنظیم تنظیم کننده ها در هنگام ساخت است.”
PI-LABS همچنین بخشی از برنامه آغازین NVIDIA است و به آنها امکان دسترسی به GPU های با تخفیف و منابع فنی را برای کمک به مقیاس سریعتر می دهد. با توجه به میزان محاسبات برای آموزش و به روزرسانی مدیران AI ، این یک افزایش اساسی است.
امنیت نمی تواند یک نتیجه باشد
Tiwari ، که از پیشینه خانوادگی در امنیت سایبری و دفاع ناشی می شود ، در مورد آنچه باید تغییر کند ، صریح است. “در دنیای فیزیکی ، ما یک خانه خریداری می کنیم و آن را قفل می کنیم. در نرم افزار ، ما برنامه هایی می سازیم و حتی آنتی ویروس نصب نمی کنیم.”
برای او ، دنیای دیجیتال اکنون دنیای واقعی است و ما از همیشه آسیب پذیرتر هستیم. از استخدام منابع انسانی گرفته تا امور مالی گرفته تا ارتباطات روزمره ، عمیق در حال تغییر نحوه ایجاد اعتماد به صورت آنلاین است.
وی گفت: “ما قبلاً می گفتیم در دنیای تعریف شده از نرم افزار زندگی می کنیم.” “اکنون ما در یک الگوریتم کنترل شده زندگی می کنیم.”
از آنجا که سرعت و رئالیسم Deepfakes همچنان در حال تحول است ، PI-LABS در حالت ثابت قرار دارد و هر چهار تا شش هفته مانند یک شرکت ضد ویروس به روزرسانی می شود و از هر روش حمله جدید یاد می گیرد.
و این رویکرد آنهاست ، با یک قدم محاسبه شده عقب مانده ، اما به اندازه کافی سریع جلب می شود تا تفاوت را ایجاد کند.
[ad_2]
لینک منبع
ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰