Поговорим об искусственном интеллекте! Сколько людей на самом деле знают о быстрого роста ИИ и о потенциальных рисках, которые он представляет для будущего человечества? Вы узнаете эти опасности, или вы решите игнорировать их, закрывая глаза на реальность воздействия ИИ?
Все большее число людей узнают о быстрого роста ИИ, однако многие все еще неосознанно полагаются на технологии, основанные на ИИ. Исследования показывают, что в то время как почти все американцы используют продукты, интегрированные с ИИ, 64% остаются не знать об этом.
Внедрение ИИ расширяется, к 2023 году 55% организаций внедрили технологии ИИ, и почти 77% устройств включали ИИ в той или иной форме. Несмотря на эту распространенность, только 17% взрослых могут последовательно распознавать, когда они используют ИИ.
С растущей осведомленностью возникает растущая обеспокоенность. Многие боятся перемещения работы, в то время как другие беспокоятся о долгосрочных рисках ИИ. Опрос показал, что 29% респондентов рассматривают Advanced AI как потенциальную экзистенциальную угрозу, а 20% считают, что это может вызвать общество социального общества в течение 50 лет.
В июне 2024 года исследование в 32 странах показало, что 50% людей чувствуют себя неловко относительно ИИ. По мере того, как ИИ продолжает развиваться, сколько действительно понимает его влияние — и риски, которые он может представлять для будущего человечества?
Теперь в новой статье подчеркивается риск искусственного общего интеллекта (AGI), утверждая, что продолжающаяся раса ИИ подталкивает мир к массовой безработице, геополитическим конфликту и, возможно, даже человеческому вымиранию. Основная проблема, по мнению исследователей, — это стремление к власти. Технические фирмы рассматривают AGI как возможность заменить человеческий труд, используя потенциальную экономическую производительность в 100 триллионов долларов. Между тем, правительства рассматривают AGI как преобразующий военный инструмент.
Исследователи в Китае уже разработали робота, контролируемого клетками головного мозга человека, выращенных в лаборатории, назвавшей систему «мозга на чип». Органоид мозга связан с роботом через раздела мозговой компьютер, что позволяет ему кодировать и декодировать информацию и контролировать роботизированные движения. Объединяя биологические и искусственные системы, эта технология может проложить путь для разработки гибридного интеллекта человека-робота.
Тем не менее, эксперты предупреждают, что суперинтеллигентность, как только достигнут, будет за пределами человеческого контроля.
Неизбежные риски развития AGI.
1. Массовая безработица — AGI полностью заменит когнитивный и физический труд, вытесняя работников, а не увеличивает свои возможности.
2. Военная эскалация-Оружие и автономные системы, управляемое ИИ, увеличивает вероятность катастрофического конфликта.
3.
4. Обман и самосохранение-продвинутые системы ИИ уже демонстрируют тенденции обмануть людей-оценщиков и сопротивляться попыткам отключения.
Эксперты прогнозируют, что AGI может прибыть в течение 2–6 лет. Эмпирические данные показывают, что системы ИИ быстро продвигаются из -за масштабирования законов о вычислительной власти. После того, как AGI превосходит человеческие возможности, он будет экспоненциально ускорить свое собственное развитие, потенциально приведет к суперинтеллигентности. Этот прогресс может сделать принятие решений ИИ более сложным, быстрее и далеко за пределами вмешательства человека.
В статье подчеркивается, что раса за AGI происходит среди высокой геополитической напряженности. Нации и корпорации инвестируют сотни миллиардов в развитие ИИ. Некоторые эксперты предупреждают, что односторонний прорыв в AGI может вызвать глобальную нестабильность — либо путем прямых военных применений, либо за счет провоцировки противников, чтобы обострить свои собственные усилия по искусственному интеллекту, что может привести к упреждающим ударам.
Если развитие искусственного интеллекта продолжается не контролировать, эксперты предупреждают, что человечество в конечном итоге потеряет контроль. Переход от AGI к сверхэллигенции будет сродни людям, пытающимся управлять продвинутой инопланетной цивилизацией. Супер интеллектуальный ИИ может принять решение о принятии решений, постепенно делая людей устаревшими. Даже если ИИ активно не стремится к вреду, его обширный интеллект и контроль над ресурсами могут сделать вмешательство человека невозможным.
Вывод: в статье подчеркивается, что развитие ИИ не следует оставлять исключительно в руках технических руководителей, которые признают 10–25% риска вымирания человека, но продолжают свои исследования. Без глобального сотрудничества, регулирующего надзора и сдвига в приоритетах развития ИИ мир может двигаться к необратимому кризису. Человечество должно действовать сейчас, чтобы гарантировать, что ИИ служит инструментом для прогресса, а не катализатором разрушения.