Т елефонните измами са разпространени по целия свят. Сега те стават още по-рискови заради изкуствен интелект, съобщава Washington Post.
В Канада и САЩ са засечени нов тип телефонни измами, които използват изкуствен интелект, за да симулират гласа на роднина или приятел на жертвата. Самите сценарии са добре познатите - някой е закъсал и има спешна нужда от пари. Някои ситуации дори са разиграни от няколко души. Например първо говори "адвокат", който дава телефона за кратко на "роднината" и след това продължава да говори той.
Създаването на подобен запис не е сложно. В интернет вече могат да се намерят множество умни алгоритми, които дори безплатно могат да пресъздадат гласа на избран човек. Най-често е нужен аудио запис от няколко изречения, а в ерата на социалните мрежи няма да е трудно да се намерят подходящи клипове, от които те да бъдат взети.
Как да ускорим работата на интернет браузъра
По-технически напредналите измамници дори клонират мобилния номер на човека, за когото се представят. Така измамата изглежда още по-реалистична.
Регулации за този тип софтуерни продукти практически няма, като единствено в Китай за момента има действащ закон. Компаниите, които ги предлагат, сами внедряват мерки за защита, като например изискване за регистрация с име, адрес и банкова сметка преди да дадат достъп до по-специфичните функции за създаване на глас по избор.
Microsoft подготвя изцяло нова версия на Edge
Лесен трик за бърз достъп до уеб сайтове в Safari
Мерките за защита са същите, като за старите измами. Получателите на такива обаждания трябва да опитат да се свържат с дадения човек по друг начин - да му се обадят те, да го потърсят чрез съобщения и т.н. Също така не трябва да се поддават на искания за плащане чрез ваучери или изпращане на пари, съветват експертите.
Малко познати практични трикове за iPhone
Хората може да са по-истински онлайн
Следете ни навсякъде и по всяко време с мобилното приложение на Vesti.bg. Можете да го изтеглите от Google Play и AppStore.
За още любопитно съдържание от Vesti.bg последвайте страницата ни в Instagram.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!