ارسال پاسخ به

محافظت از صدای افراد در برابر جعل شدن با هوش مصنوعی

تاریخ انتشار : ۱۴۰۲/۹/۲۸

خانه // خبرها //
محافظت از صدای افراد در برابر جعل شدن با هوش مصنوعی
اشتراک گذاری
article image

جعل صدا یکی از خطرات گسترش استفاده از هوش مصنوعی محسوب می‌شود. متاسفانه برخی از افراد با سوءاستفاده از فناوری دیپ فیک و هوش مصنوعی صدای افراد را طوری شبیه‌سازی و جعل می‌کنند. صداهای جعل‌شده با این روش بسیار واقعی به نظر می‌رسد و افراد کمی متوجه ساختگی بودن آن‌ها می‌شوند. به‌تازگی پژوهشگری به نام «نینگ جان» (Ning Zhang)، فناوری جدیدی به نام « AntiFake» (آنتی فیک) جهت مقابله با جعل صدا با هوش مصنوعی معرفی کرده است. 

فناوری AntiFake قبل از سوءاستفاده از صدای یک فرد برای جعل آن، از این اتفاق جلوگیری می‌کند. فناور‌ی‌های کنونی مقابله با جعل و شبیه‌سازی صدا با هوش مصنوعی، تنها توانایی تشخیص صدای ساختگی را دارند و قادر به جلوگیری از این اتفاق، قبل از وقوع نیستند؛ اما Anti Fake با ایجاد تغییرات اندک در فایل صدا، خواندن صداهای ضبط‌شده را برای خواندن صدای یادگیری ماشینی و هوش مصنوعی دشوار می‌کند؛ چنین روشی باعث دشوار شدن جعل و شبیه‌سازی صدا با هوش مصنوعی و فریب افراد با این روش می‌شود.

در فناوری AntiFake با هوش مصنوعی اختلال‌ها و دست‌کاری‌هایی در سیگنال صدا انجام می‌شود تا هوش مصنوعی به‌راحتی قبل دیگر نتواند آن را تشخیص دهدِ؛ البته انسان هنگام شنیدن چنین صداهایی، متوجه دست‌کاری‌های ایجادشده در آن‌ها نمی‌شود و پس از شنیدن صدا، آن را بدون هیچ مشکلی می‌فهمد؛ بنابراین با چنین روشی ترک‌های صوتی هم در برابر خطر جعل شدن با هوش مصنوعی مصون باقی می‌مانند و هم انسان در هنگام شنیدن صداهای تغییریافته، به‌راحتی آن‌ها را می‌فهمد.

نتایج بررسی‌های AntiFake نشان می‌دهد این فناوری در ۹۵ موارد موفق به جلوگیری از جعل و شبیه‌سازی صدا شده است؛ البته در حال حاضر این فناوری تنها برای مقابله با جعل صداهای کوتاه می‌تواند به ما کمک کند؛ اما امیدواریم در آینده برای محافظت از ترک‌های صوتی طولانی نیز مؤثر واقع شود؛ خود نینگ جان هم‌چنین چشم‌اندازی برای فناوری خود دارد.

نوشته شده توسط تحریریه aia

ارسال نظر

هیچ نظری درباره این خبر ثبت نشده است.