Ученый рассказал, к чему приведёт потеря контроля над искусственным интеллектом

Модели искусственного интеллекта (ИИ), как, например,  ChatGPT – в будущем могут представлять угрозу человеческой цивилизации и стать опаснее ядерного оружия. Без должного контроля со стороны человека нейросеть будет способна сама саморазвиваться и создавать более сильный искусственный интеллект. Свой предостерегающий прогноз опубликовал в журнале The Economist писател, автор книги «Sapiens: Краткая история человечества» Юваль Ной Харари.

«В то время как ядерные бомбы не могут сами изобрести более мощное ядерное оружие, искусственный интеллект может создать экспоненциально более мощный искусственный интеллект», — предупредил Харари.

Писатель надеется, что ИИ будет использоваться исключительно во благо человека, например, для поиска лекарства от рака или разрешения экологических проблем.

Харари опасается, что в будущем нейросети могут использоваться и для создания «политического контента и фейковых новостей», что влечет дополнительные риски для стабильного существования человечества.

О том, как искусственный интеллект обработал данный прогноз ученого, читайте здесь.

Курсы онлайн

Повышение квалификации и профпереподготовка. Тренинги и семинары