• Купить
  • Продать
  • Форум
Суббота, 30 сентября, 2023
  • Login
  • Регистрация
iStorka - новости криптовалют сегодня
  • Главная
  • Новости
  • Майнинг
  • Биткоин
  • ФОРУМ
  • ДОНАТ
  • КОНТАКТЫ
Нет результатов
Смотреть все результаты
  • Главная
  • Новости
  • Майнинг
  • Биткоин
  • ФОРУМ
  • ДОНАТ
  • КОНТАКТЫ
Нет результатов
Смотреть все результаты
iStorka
Нет результатов
Смотреть все результаты
Главная hashtelegraph.com

Опасности и риски внедрения искусственного интеллекта

Zordan by Zordan
15.09.2023
В hashtelegraph.com
58 0
0
44
Поделилось
1.5k
Просмотров
Поделиться в FacebookПоделиться в TwitterПоделиться в ВконтактеПоделиться в Telegram
Опасности и риски внедрения искусственного интеллекта

За последний год искусственный интеллект наделал много шума. Благодаря прогрессу генеративных инструментов, таких как ChatGPT, компании и целые страны осознали огромный потенциал этой технологии и начинают ее применять.

Мы знаем, что существуют проблемы — утрата рабочих мест, риски с точки зрения кибербезопасности и кражи данных или, возможно, даже экзистенциальная угроза человечеству в целом.

Related articles

Актуальные тренды искусственного интеллекта

Актуальные тренды искусственного интеллекта

30.09.2023
Майнеры обратились к президенту Казахстана с просьбой о снижении налогов

Майнеры обратились к президенту Казахстана с просьбой о снижении налогов

30.09.2023

Сегодня более непосредственная угроза исходит не от сверхразума, а от полезных, но потенциально опасных приложений, использующих ИИ. Есть два контекста этой проблемы: опасность ИИ для человека и риски с точки зрения компаний, внедряющих передовую технологию.

Чем может быть опасен искусственный интеллект?

ИИ способен приносить пользу или вред, в зависимости от того, как мы его используем и контролируем. Среди возможных опасностей ИИ можно выделить следующие:

Потеря рабочих мест

ИИ способен выполнять некоторые задачи лучше, быстрее и дешевле, чем человек. Это может привести к сокращению рабочей силы и увеличению безработицы. Людям придется адаптироваться к новой ситуации и искать новые способы заработка и самореализации.

Политические, юридические и социальные вызовы

ИИ требует регулирования. Если наши правительства и корпоративные институты не потратят время на разработку правил, стандартов и обязанностей, определяющих дальнейшее развитие ИИ, то неизбежно возникнут негативные последствия.

Терроризм с использованием ИИ

Искусственный интеллект способен изменить способ силового воздействия с помощью автономных дронов, роев роботов, дистанционных атак и атак нанороботов. Человечеству придется поставить под контроль глобальную гонку автономных вооружений.

Социальные манипуляции

Искусственный интеллект может отражать предубеждения людей, которые его создают. Если данные, на которых обучается ИИ, субъективны, то это может повлиять на качество генерируемого контента. В руках злоумышленников ИИ может быть использован для распространения лжи и влияния на общественное мнение.

Надзор с помощью ИИ

Искусственный интеллект может распознавать лица, что дает возможность разблокировать телефоны, получать доступ к закрытым объектам, а также тайно следить за обществом. В некоторых странах полиция и правительство нарушают приватность людей, используя способность ИИ контролировать информационные системы на основе данных наблюдения, камер и социальных сетей.

Дипфейки

Технология искусственного интеллекта позволяет легко создавать поддельные видео с реальными людьми. Они могут быть использованы без согласия пользователя для распространения фальшивых новостей, создания фейковой порнографии и других подделок, направленных на нанесение ущерба не только репутации человека, но и его материальному состоянию. Технология постоянно совершенствуется и легко вводит людей в заблуждение.

Меры противодействия опасностям

Для противодействия опасностям ИИ можно принять следующие меры:

  • Разработать и соблюдать этические принципы и стандарты в области ИИ, которые будут учитывать права и интересы человека, а также общественную пользу и безопасность.
  • Регулировать и контролировать развитие и применение ИИ, устанавливая правила, нормы и обязательства для создателей, пользователей и надзорных органов.
  • Обеспечить транспарентность и ответственность ИИ, требуя от него объяснять свои решения, действия и результаты, а также нести ответственность за возможные ошибки, нарушения или ущерб.
  • Обучать специалистов по ИИ, а также повышать осведомленность и грамотность общества в области ИИ, формируя критическое мышление и знание своих прав и обязанностей.
  • Сотрудничать и поддерживать диалог с различными заинтересованными сторонами, включая научное сообщество, бизнес, государство, общественные организации и граждан, для обмена знаниями, опытом и мнениями по вопросам ИИ.

Некоторые из этих мер уже реализуются в разных странах и регионах. Например, Европейский союз принял первый в мире закон о защите прав человека в сфере ИИ, который предусматривает запрет на определенные виды ИИ, классификацию ИИ по уровню риска, требования к качеству данных, безопасности и документации ИИ, а также механизмы надзора и санкций.

В чем заключаются риски для компаний?

В недавнем отчете Всемирного экономического форума говорится, что в настоящее время компании недооценивают риски, связанные с ИИ, и только 4% руководителей считают уровень риска значительным.

В мае 2023 года Samsung стала одной из последних компаний, запретивших использование ChatGPT после того, как обнаружила, что сотрудники передавали генеративному инструменту данные конфиденциальных документов. Компания OpenAI открыто заявила, что ChatGPT не дает гарантии конфиденциальности, поскольку загружает данные в облако, где к ним могут получить доступ сотрудники а, возможно, и другие лица.

Это лишь один из большого количества примеров, получивших известность в последнее время. Многие компании не готовы к подводным камням, которые таит в себе ИИ.

Точность

Общая проблема генеративного ИИ заключается в том, что мы не можем полагаться на точность полученных результатов. Любой, кто использовал ChatGPT или аналогичные инструменты для исследований и для поиска ответа на сложные вопросы, знает, что иногда они могут давать неверную информацию. ИИ часто скрывает свои источники. Ошибочные действия, основанные на неточной информации, могут привести к операционному или репутационному ущербу для бизнеса.

Угрозы безопасности

Могут проявляться в форме как внутренних, так и внешних угроз. Внутри компании неосведомленные или неправильно обученные пользователи могут раскрыть конфиденциальную корпоративную информацию или защищенную информацию клиентов, загрузив ее на облачные генеративные платформы, такие как ChatGPT. С другой стороны, ИИ позволяет киберпреступникам прибегать к новым и изощренным формам социальной инженерии и фишинговых атак. Например, генеративный ИИ может быть использован для создания поддельного голосового сообщения от руководителя компании, запрашивающего у сотрудника конфиденциальную информацию.

Предвзятость

Системы ИИ хороши лишь настолько, насколько хороши данные, на которых они обучаются, поэтому существует опасность создания предвзятых результатов. Если данные собираются предвзятым образом (например, в условиях завышенной или заниженной статистики по определенным группам населения), то это приводит к искаженным результатам, которые могут повлиять на принятие решений. Примером служит инструмент, предназначенный для автоматического сканирования резюме соискателей и отсеивания неподходящих. Если инструмент не располагает достаточным количеством данных о заявителях из определенного сегмента, то окажется не способен точно оценить соответствующие заявки.

Культура и доверие

Внедрение новых инструментов, технологий и процессов часто вызывает беспокойство у работников. Дополнительная тревога может быть связана с обсуждением замены человека искусственным интеллектом. Сотрудники часто опасаются, что системы ИИ будут внедрены на их рабочих местах, в результате чего они окажутся уволенными. Также могут возникнуть подозрения, что внедряются системы ИИ для наблюдения за сотрудниками и мониторинга их деятельности.

Повышение корпоративной готовности

Многие руководители высшего звена чрезмерно уверены в своих оценках готовности к использованию ИИ. Опросы показывают, что только 41% компаний обладают опытом в области ИИ на уровне правления. При этом редко можно обнаружить, что компании вырабатывают собственную политику в отношении использования генерирующих инструментов ИИ. Как правило, у них не создана система, гарантирующая, что информация, создаваемая ИИ, является точной и заслуживает доверия, и что предвзятость не влияет на принятие решений с помощью ИИ.

Невозможно быстро взять под контроль ИИ, но хорошим началом было бы назначить директора по ИИ (CIAO), который несет ответственность за внедрение, оценку возможностей и рисков ИИ. В его обязанности также должно входить обеспечение осведомленности об ИИ на всех уровнях организации. Всем сотрудникам необходимо знать о рисках, связанных с точностью, предвзятостью и безопасностью. Кроме того, все в компании должны понимать, как ИИ способен повлиять на их собственную роль, и как он может сделать их труд более эффективным.

Если ИИ используется для сбора информации или принятия решений, должны быть разработаны протоколы для оценки точности генерации и выявления областей деятельности, на которые может оказать влияние предвзятость ИИ.

Кроме того, ИИ должен стать частью корпоративной стратегии кибербезопасности. Эта стратегия может иметь разные уровни сложности, начиная с простого информирования сотрудников об угрозах фишинга с использованием искусственного интеллекта и атак социальной инженерии, вплоть до развертывания систем защиты на основе ИИ от попыток взлома с помощью ИИ.

И, наконец, компании должны приложить усилия по взаимодействию с государственными инстанциями для участия в дискуссиях по регулированию ИИ и законодательству. По мере развития технологии, отраслевые органы и организации начнут участвовать в разработке и внедрении кодексов практики, положений и стандартов. Важно, чтобы организации, которые находятся на переднем крае использования технологии ИИ, предоставили свой вклад и опыт.

Не понимая этих опасностей и не реагируя на них, любой человек или компания рискует столкнуться с одной из величайших угроз, создаваемых ИИ: не использовать его возможности и в результате остаться позади более дальновидных конкурентов.

▼
Канал Anton Elston — это актуальная информация об IT, блокчейне, NFT и онлайн-образовании. Здесь рождается метавселенная DEXART

Источник: hashtelegraph.com

Теги: #ChatGPTHASHTELEGRAPHАнтон ЭльстонБезопасностьИскусственный интеллектКриптовалютаНовостиСтатьи
Поделиться18Tweet11Поделиться2Поделиться

Похожее:Записи

Актуальные тренды искусственного интеллекта
hashtelegraph.com

Актуальные тренды искусственного интеллекта

by Zordan
30.09.2023
0

В течение двух последних лет рынок искусственного интеллекта рос экспоненциальными темпами, в основном благодаря таким продуктам, как ChatGPT и Claude,...

Читать еще
Майнеры обратились к президенту Казахстана с просьбой о снижении налогов

Майнеры обратились к президенту Казахстана с просьбой о снижении налогов

30.09.2023
Новый владелец бизнеса Binance в России опубликовал открытое письмо

Новый владелец бизнеса Binance в России опубликовал открытое письмо

29.09.2023
Binance получила поддержку от Circle в споре с SEC по поводу BUSD

Binance получила поддержку от Circle в споре с SEC по поводу BUSD

29.09.2023
PayPal планирует запустить собственный NFT-маркетплейс

PayPal планирует запустить собственный NFT-маркетплейс

29.09.2023
Загрущить еще

Обсуждение: post

  • Интересно:
  • Комментарии
  • Последнее
Полный и подробный гайд STEPN: Код активации, кроссовки, как играть и сколько можно заработать

Полный и подробный гайд STEPN: Код активации, кроссовки, как играть и сколько можно заработать

17.04.2022
ТОП-4 кошелька для стейкинга криптовалют

ТОП-4 кошелька для стейкинга криптовалют

27.05.2021
ТОП-9 криптовалют для стейкинга: Как выбрать токен и запустить стейкинг?

ТОП-9 криптовалют для стейкинга: Как выбрать токен и запустить стейкинг?

27.09.2021
Вестник DeFi: TVL вырос на 15% за месяц, а Curve анонсировала стейблкоин

Вестник DeFi: TVL вырос на 15% за месяц, а Curve анонсировала стейблкоин

30.07.2022
Биткоин взял паузу перед взятием $24000 и взлётом к $30000

Биткоин взял паузу перед взятием $24000 и взлётом к $30000

0
Капитализация стейблкоина Tether превысила $20 млрд

Капитализация стейблкоина Tether превысила $20 млрд

0
Транзакционные сборы в сети биткоина выросли в два раза на этой неделе

Транзакционные сборы в сети биткоина выросли в два раза на этой неделе

0
Аналитик MCM Partners ставит на рывок биткоина до $25 000

Аналитик MCM Partners ставит на рывок биткоина до $25 000

0
Роберт Кийосаки призвал покупать биткоин до запуска цифрового доллара

Роберт Кийосаки призвал покупать биткоин до запуска цифрового доллара

30.09.2023
CFTC обвинила основателя Mosaic Exchange в создании криптовалютной схемы

CFTC обвинила основателя Mosaic Exchange в создании криптовалютной схемы

30.09.2023
Биржа Gemini уходит из Нидерландов

Биржа Gemini уходит из Нидерландов

30.09.2023
ЦБ Грузии готовится к тестированию цифрового лари

ЦБ Грузии готовится к тестированию цифрового лари

30.09.2023
iStorka

Агрегатор: новости криптовалют сегодня

Метки

#цена Binance bitcoin BITS Coinbase COINSPOT Cryptocurrency CRYPTOPRO DeFi ethereum FORKLOG FTX HASHTELEGRAPH NFT PROFITGID SEC WHATTONEWS yandex Альткоин Аналитика Банк Безопасность Бизнес Бизнес идеи Биржа криптовалют Биржи Биткоин Блокчейн В помощь бизнесмену Инвестиции Интернет-бизнес Криптовалюта Криптовалюты Майнинг Мошенничество Новости Платформа Регулирование Россия США Суд Токен Транзакция Трейдинг Эфириум

Последние записи

Роберт Кийосаки призвал покупать биткоин до запуска цифрового доллара

Роберт Кийосаки призвал покупать биткоин до запуска цифрового доллара

by Zordan
30.09.2023
0

Автор бестселлера «Богатый папа, бедный папа» и предприниматель Роберт Кийосаки призвал инвестировать в первую криптовалюту, золото и серебро до запуска...

CFTC обвинила основателя Mosaic Exchange в создании криптовалютной схемы

CFTC обвинила основателя Mosaic Exchange в создании криптовалютной схемы

by Zordan
30.09.2023
0

Комиссия по торговле товарными фьючерсами (CFTC) обвинила платформу криптовалютной торговли Mosaic Exchange Limited и ее владельца в создании «мошеннической схемы...

© 2021 iStorka - новости криптовалют сегодня

Разрешается частичное копирование материалов сайта при условии наличия активной ссылки на источник.

Любые предложения и пожелания вы можете присылать на адрес info@istorka.ru

iStorka - работает для вас

  • Главная
  • Новости
  • Майнинг
  • Биткоин
  • ФОРУМ
  • ДОНАТ
  • КОНТАКТЫ
Нет результатов
Смотреть все результаты
  • Главная
  • Новости
  • Майнинг
  • Биткоин
  • ФОРУМ
  • ДОНАТ
  • КОНТАКТЫ

© 2021 iStorka - новости криптовалют сегодня.

С возвращением!

Войти в аккаунт

Забыли пароль? Подписаться

Создать новый аккаунт

Заполните поля для регистрации

Все поля обязательны Войти

Повторите пароль

Укажите детали для сброса пароля

Войти

Add New Playlist

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?