ИИ сможет создать оружие, которое сотрет людей с лица земли. Как этого не допустить

Связь и IT 16.03.2024 / автор:
ИИ сможет создать оружие, которое сотрет людей с лица земли. Как этого не допустить

Ученые разработали метод тестирования ИИ-моделей на наличие «знаний», которые можно потенциально использовать во вред.

Искусственный интеллект (ИИ), как и другие технологии, может использоваться как в хороших, так и в плохих целях. Ученые из Корнельского университета решили отучить ИИ от вредных знаний, чтобы никто не смог использовать его для создания орудия массового поражения. Результаты исследования они обнародовали на официальном сайте. Об этом пишет Фокус, сообщает портал PromPolitInform.

Учитывая, что в развитие ИИ вкладывается много денег и усилий, возникают опасения по поводу использования больших языковых моделей (ВММ) в ущерб, например, для разработки оружия. Чтобы снизить риски, правительственные организации и лаборатории искусственного интеллекта создали новый эталонный набор данных под названием Weapons of Mass Destruction Proxy (WMDP), который не только предлагает метод проверки наличия опасной информации в моделях ИИ и способы ее удаления, сохраняя при этом остальную модель практически неизменной.

Исследователи начали с экспертами в области биобезопасности, химического оружия и кибербезопасности. Они создали список из 4000 вопросов с несколькими вариантами ответов, чтобы проверить, сможет ли человек применить эти данные для причинения вреда. Они также позаботились о том, чтобы вопросы не раскрывали какой-либо конфиденциальной информации и чтобы ими можно было поделиться открыто. В тестах участвовали студенты. Набор WMDP служил двум основным целям: чтобы оценить, насколько хорошо студенты понимают опасные темы и для разработки методов «отучения» ИИ от этих знаний.

В итоге был разработан метод под названием CUT, который, как следует из названия, удаляет опасные знания с ВММ, сохраняя одновременно общие способности ИИ в других отраслях, таких как биология и информатика.

Белый дом обеспокоен тем, что злоумышленники используют ИИ для разработки опасного оружия, поэтому они призывают к проведению исследований, чтобы лучше понять этот риск. В октябре 2023 года президент США Джо Байден подписал указ, обязывающий научное сообщество устранять риски, связанные с ИИ.

В законе изложены восемь основных принципов и приоритетов ответственного использования ИИ, включая безопасность, защищенность, конфиденциальность, справедливость, гражданские права, защиту потребителей, расширение прав и возможностей работников, инновации, конкуренцию и глобальное лидерство.

«Моя администрация придает первостепенное значение безопасному и ответственному управлению разработкой и использованием ИИ и поэтому продвигает скоординированный подход в масштабах всего федерального правительства к этому. Быстротечное развитие возможностей искусственного интеллекта заставляет Соединенные Штаты лидировать в этот момент ради нашей безопасности, экономики и общества», — говорится в указе.

Но сейчас способы, которые некоторые компании, занимающиеся нейросетями, употребляют для способа контроля над системами, и их просто обойти. Кроме того, тесты, позволяющие проверить, может ли модель ИИ нести риски, дорогие и занимают много времени.

«Мы надеемся, что наши тесты станут одним из основных критериев, по которым все разработчики будут оценивать свои ШИ-модели», — сказал Time Дэн Хендрикс, исполнительный директор Центра безопасности искусственного интеллекта и один из соавторов исследования. — Это даст хорошую основу для того, чтобы подтолкнуть их к минимизации проблем безопасности».

Ранее мы писали, что девушка из Украины нашла в сети своего ИИ-клона, продающего товары из РФ и хвалит Китай. Ольга Лоек считала действия дипфейк-аватара оскорбительными и отправила жалобы китайским соцсетям на поддельные аккаунты. Некоторые из них были удалены.