Модели искусственного интеллекта (ИИ), как, например, ChatGPT – в будущем могут представлять угрозу человеческой цивилизации и стать опаснее ядерного оружия. Без должного контроля со стороны человека нейросеть будет способна сама саморазвиваться и создавать более сильный искусственный интеллект. Свой предостерегающий прогноз опубликовал в журнале The Economist писател, автор книги «Sapiens: Краткая история человечества» Юваль Ной Харари.
«В то время как ядерные бомбы не могут сами изобрести более мощное ядерное оружие, искусственный интеллект может создать экспоненциально более мощный искусственный интеллект», — предупредил Харари.
Писатель надеется, что ИИ будет использоваться исключительно во благо человека, например, для поиска лекарства от рака или разрешения экологических проблем.
Харари опасается, что в будущем нейросети могут использоваться и для создания «политического контента и фейковых новостей», что влечет дополнительные риски для стабильного существования человечества.
О том, как искусственный интеллект обработал данный прогноз ученого, читайте здесь.