تاریخ انتشار : ۱۴۰۲/۹/۲۸
جعل صدا یکی از خطرات گسترش استفاده از هوش مصنوعی محسوب میشود. متاسفانه برخی از افراد با سوءاستفاده از فناوری دیپ فیک و هوش مصنوعی صدای افراد را طوری شبیهسازی و جعل میکنند. صداهای جعلشده با این روش بسیار واقعی به نظر میرسد و افراد کمی متوجه ساختگی بودن آنها میشوند. بهتازگی پژوهشگری به نام «نینگ جان» (Ning Zhang)، فناوری جدیدی به نام « AntiFake» (آنتی فیک) جهت مقابله با جعل صدا با هوش مصنوعی معرفی کرده است.
فناوری AntiFake قبل از سوءاستفاده از صدای یک فرد برای جعل آن، از این اتفاق جلوگیری میکند. فناوریهای کنونی مقابله با جعل و شبیهسازی صدا با هوش مصنوعی، تنها توانایی تشخیص صدای ساختگی را دارند و قادر به جلوگیری از این اتفاق، قبل از وقوع نیستند؛ اما Anti Fake با ایجاد تغییرات اندک در فایل صدا، خواندن صداهای ضبطشده را برای خواندن صدای یادگیری ماشینی و هوش مصنوعی دشوار میکند؛ چنین روشی باعث دشوار شدن جعل و شبیهسازی صدا با هوش مصنوعی و فریب افراد با این روش میشود.
در فناوری AntiFake با هوش مصنوعی اختلالها و دستکاریهایی در سیگنال صدا انجام میشود تا هوش مصنوعی بهراحتی قبل دیگر نتواند آن را تشخیص دهدِ؛ البته انسان هنگام شنیدن چنین صداهایی، متوجه دستکاریهای ایجادشده در آنها نمیشود و پس از شنیدن صدا، آن را بدون هیچ مشکلی میفهمد؛ بنابراین با چنین روشی ترکهای صوتی هم در برابر خطر جعل شدن با هوش مصنوعی مصون باقی میمانند و هم انسان در هنگام شنیدن صداهای تغییریافته، بهراحتی آنها را میفهمد.
نتایج بررسیهای AntiFake نشان میدهد این فناوری در ۹۵ موارد موفق به جلوگیری از جعل و شبیهسازی صدا شده است؛ البته در حال حاضر این فناوری تنها برای مقابله با جعل صداهای کوتاه میتواند به ما کمک کند؛ اما امیدواریم در آینده برای محافظت از ترکهای صوتی طولانی نیز مؤثر واقع شود؛ خود نینگ جان همچنین چشماندازی برای فناوری خود دارد.
ارسال نظر
هیچ نظری درباره این خبر ثبت نشده است.