Google се е присъединил към други ИТ компании, които призовават служителите си да са внимателни с чатботовете и изкуствения интелект като цяло. Предупреждението важи дори и за собствения чатбот на компанията Bard, съобщава AndroidAuthority.
Според информация на Reuters, ръководството на Google е призовало служителите да не въвеждат конфиденциална информация при използването на изкуствен интелект. Това включва и програмен код, който може да се дава на Bard, за да го допълва и подобрява.
Пред Reuters компанията е коментирала, че Bard понякога може да даде "нежелани" предложения. Освен това има и риск от изтичане на данни чрез манипулиране на бота с въпроси. Други посочени рискове са споделяне на тези данни и с друг изкуствен интелект или човек. Така важни служебни данни може да се окажат публични.
Европарламентът прие регулациите за AI
Google е добавила предупреждение и в описанието на Bard, което е достъпно за всички потребители. В него компанията казва да не се споделя с бота информация, която може да идентифицира потребителя или други хора. Алгоритъмът няма как да прави разлика между конфиденциална информация и публична.
Хакери изнудват с фалшиви AI снимки
ChatGPT написал фалшиви аргументи за съдебно дело
Интернет гигантът коментира пред Reuters, че е водил разговори и с ирландската Комисия за защита на данните. Причината е била именно чатботовете и защитата на информацията. Именно заради тези разговори компанията е решила да отложи пускането на Bard в Европейския съюз, което е трябвало да се случи тази седмица.
Тим Кук: AI ще е важен, но все още има проблеми
IBM очаква да замени 30% от служителите си с AI
Следете ни навсякъде и по всяко време с мобилното приложение на Vesti.bg. Можете да го изтеглите от Google Play и AppStore.
За още любопитно съдържание от Vesti.bg последвайте страницата ни в Instagram.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!