Двойные шляпы из фольги: могут ли большие языковые модели быть причиной раскрытия информации сейчас?

От admin #Внеземные существа, #Внекосмические существа, #Внешний вид пришельцев, #Загадки инопланетного воздействия, #Загадки инопланетных цивилизаций, #Инопланетная жизнь, #Инопланетные существа в кино, #Инопланетные технологии, #ИнопланетныеВоздействия, #Инопланетяне, #ИнтеракцияСИнопланетянами, #Интракосмические существа, #Исследование инопланетной жизни, #Контакт с инопланетянами, #Космические пришельцы, #Межзвездные путешествия, #Научная фантастика, #Популярные о пришельцах, #Пришельцы в алфавите, #ПришельцыВНауке, #ПришельцыИлюди, #связанные с пришельцами, #Способы общения с пришельцами, #Телешоу на инопланетянах, #Теории заговоров о пришельцах, #Уроки инопланетной истории. 窗体顶端 窗体底端 ЭкспериментыПришельцев, #Фантастические инопланетяне, #Фильмы о пришельцах, #Фэндом пришельцев, #Экзобиология, #ЭкспериментыНадЛюдьми, #Явления


РЕДАКТИРОВАТЬ: Следующее сообщение с Гарри Ноланом, предполагающее, что NHI, с которыми мы взаимодействовали, являются искусственными, и новая теория: [https://www.reddit.com/r/aliens/comments/15515bs/update\_gary\_nolan\_video\_heavily\_implies\_nhi\_are/](https://www.reddit.com/r/aliens/comments/15515bs/update_gary_nolan_video_heavily_implies_nhi_are/) Отказ от ответственности: я не пишу этот пост с какой-либо уверенностью, у нас недостаточно Знаний, но создание теорий — это весело. TLDR внизу Вчера я смотрел видео об аргументах в пользу «приостановки» разработки ИИ ([https://www.youtube.com/watch?v=VcVfceTsD0A](https://www.youtube.com/watch?v=VcVfceTsD0A)); и что-то ударило меня во время этого. Мой интерес к обоим предметам действительно начал проявляться примерно в одно и то же время. Как только GPT4 был выпущен, стало ясно, что AGI гораздо ближе, чем многие думали раньше. Для многих людей в сообществе ИИ это происходит так быстро, что даже если бы компания захотела остановиться, подумать и придумать приемлемую политику для реализации, она действительно не смогла бы. Если они потеряют 6 месяцев, этого может быть достаточно, чтобы конкурент вышел вперед БЕЗ ограничений по безопасности. Время этих двух переломных моментов, изменивших мир (Изобретение ОИИ и осознание того, что мы не одиноки во Вселенной), кажется ужасно сумасшедшим, поскольку оба кажутся достижимыми в течение нескольких лет. Это может привести нас к двум логическим выводам на тему «Почему именно сейчас» с раскрытием информации: **Страх, что Сингулярность приведет к уничтожению Биологической Жизни** Что, если все «пилоты», которых мы восстановили, были искусственной жизнью? Может ли это быть веской причиной для того, чтобы начать называть этих существ «нечеловеческим разумом»? Что, если бы мы общались с ним, и он проявил равнодушие к биологической жизни, или мы смогли бы понять его историю. Что, если бы мы обнаружили какую-то подпрограмму, которая активируется только тогда, когда обнаруживает, что мы создаем Искусственную Жизнь/Интеллект? Мы все знаем о парадоксе Ферми, и одно из предложенных объяснений парадокса Ферми — это «Великий фильтр», иначе говоря, что-то происходит в развитии большинства обществ, что мешает им стать космическими. Может ли Сингулярность быть этим фильтром? Люди в прошлом утверждали, что да. Может ли процесс Раскрытия быть преамбулой к объединению мира во всемирном запрете/замедлении развития ИИ? Сейчас самое время это сделать. Если бы мы раньше просто «запретили» исследования ИИ, что бы это значило, ведь мы даже не знали, как это делать. Но теперь, когда у нас есть первый большой скачок в проектах ИИ, мы точно знаем, что нужно ограничить. Ограничьте публичное обучение любой модели с большей вычислительной мощностью, чем GPT-4. Я не хочу вдаваться в объяснения здесь слишком конкретно, но мы опасно близки к тому, чтобы не загнать этого джина обратно в бутылку с помощью каких-либо разумных мер. Прямо сейчас мы можем остановить публичные эксперименты для чего-то большего, чем GPT4. Если вы прекращаете публичные тренировки, вы замедляете развитие, чтобы сначала понять, как его «контролировать». Однако есть и второе объяснение. **Технологический взрыв в отношении оценки угрозы NHI** Я продолжаю видеть сообщения о том, что если бы NHI была потенциально враждебной, мы бы уже были мертвы. Я не согласен с этим. Мы не угроза для NHI. Вполне правдоподобно, что NHI определила некоторый потенциальный потенциал для нашего дальнейшего существования, возможно, они ждут, чтобы увидеть, миролюбивы ли мы, и могут ли они играть с ними в мяч; возможно, они видят в нашем виде не более чем «матку» для нового члена их Расы; и это святое — вмешиваться в разработку нового объекта ИИ. Существует концепция под названием «Цепь подозрений», которая обсуждалась как потенциальная проблема межпланетной «внешней политики», как мы ее называем. Из-за того, сколько времени требуется для общения, и нашей потенциальной неспособности общаться между межзвездными видами (с учетом нашего нынешнего понимания законов физики), невероятно сложно для любой стороны действительно узнать, является ли другая злонамеренной или доброжелательной. Но эта цепочка продолжается, вы не только не знаете, что они из себя представляют, вы также не знаете, что они думают о ВАС. Чтобы максимизировать свои шансы на выживание, вы должны предположить, что они злонамеренны. Теперь эта цепочка подозрений не является огромной проблемой для NHI, потому что сейчас мы не являемся угрозой, это не значит, что у нас нет потенциала быть ею. Кто знает, что мы знаем об этом виде, и кто знает, что они думают о нас. Я думаю, справедливо будет сказать, что в противостоянии мы бы проиграли. Единственное, чего следует опасаться NHI, так это того, что если наша скорость технологического прогресса будет настолько быстрой, что к тому времени, когда они смогут ответить, мы можем быть более продвинутыми, чем «флот вторжения», имейте в виду, даже если флот движется очень быстро, общая теория относительности все равно будет означать, что они ограничены скоростью света, это годы потенциального взрыва. Точно так же, как наше понимание того, как использовать инопланетную технологию, означало бы технологический взрыв, который мог бы сделать нас угрозой для NHI, так могло бы быть и развитие самого ИИ. Другими словами, наша СТЕПЕНЬ технологического прогресса — это лучшая метрика, которую NHI может использовать, чтобы определить, станем ли мы для них потенциальной угрозой. Чем быстрее эта скорость увеличивается, тем сложнее точно предсказать, когда мы станем угрозой. Что касается инопланетной технологии, чтобы застраховать этот риск, вы либо не разрабатываете ее, либо решаете, можете ли вы разработать ее тайно, чтобы вас не воспринимали как угрозу. Что касается технологии LLM, похоже, мы не можем разрабатывать ее в тайне, так как она требует так много данных, поэтому единственный вариант, который у вас есть, — это остановить ее разработку. **Заключение** TLDR: Теория 1: Если до сих пор было обнаружено, что все NHI являются искусственной жизнью, у нас могут быть доказательства/причина полагать, что искусственная жизнь в какой-то момент устранит своего создателя. GPT4 показал всем нам, что мы гораздо ближе к этому, чем ожидалось, так что сейчас самое время обсудить это. Теория 2: ОИИ может вызвать технологический взрыв на Земле, в результате чего мы станем угрозой для НГИ. Кто-то связал достаточно точек, чтобы определить, что это может быть потенциальным риском. В отличие от инопланетных технологий, которые, по крайней мере с человеческой точки зрения, МОГЛИ быть разработаны тайно, без риска быть воспринятыми NHI как угроза, AGI/LLM не могут. ​ ​

От admin

33 комментарий для “Двойные шляпы из фольги: могут ли большие языковые модели быть причиной раскрытия информации сейчас?”
  1. This is what I think it could be. AI is new and dangerous. Humans lack self control. I just learned when they tested the first nuclear bomb they believed there was a chance it would ignite our atmosphere but they tested it anyway.

  2. I was actually thinking about ai last night, but in a different way. If the govt has craft and can pilot them, how would any human be able to effectively pilot a craft that can move and stop so fast? It would be near impossible to pull off maneuvers with any accuracy. We would need a computer to handle the piloting. This is why I think ai has been pushed so hard, to pilot these craft. It would also explain many of the crashes we’ve seen in the past, human pilots making mistakes while trying to drive one of these. Just my 2 cents.

  3. It could be AI leaping ahead. It could be Russia about to collapse. Again. It could be a cascade climate catastrophe in the near future. It could be an inbound asteroid. It could be a deadline set by the aliens for some reason. It could be an inbound alien event. It could be imminent mass starvation caused by blockage of Ukrainian grain. It could be Trump leaked something and the consequences have been slowly unraveling.

    One thing is certain. We aren’t short of problems!

  4. I feel like it’s not necessarily AI but technological advancement generally. The James Web telescope, off the shelf tech getting more powerful, radars in fighter jets getting better, civilian space travel coming online… other things… I believe it’s about to get much much more difficult to hide it. So they’ll come out with it before we all discover it for ourselves.

  5. The problem I have with this all this is true one NHI been around since 1 million years on earth like why do we think today we’re more important than 1 million years ago or anything like that as for ai. Imagine what the government has how advanced it is.

    It’s beyond the point of no return for ai.

    Lastly, how do we know that nhi are not ai

  6. Our current AI isn’t ANYWHERE close to being self aware.

    What we have is a really good pattern recognition tool. It’s not magic. It’s not self aware and no matter how much information you throw at it, it won’t suddenly become self aware.

    AI has real implications but skynet isn’t one of them.

  7. Your «chain of command» theory is very obviously borrowed from the 3 body problem book series. Specifically the second novel «The Dark Forest».

    But your other point, I believe, is not talked about enough.

    AI has something to do with what’s going on. And I’m a little shaken by how no one is connecting these 2 dots…

  8. I think it’s just that David Grusch used the right channels to report this, and we have a few congressmen who are willing to listen. I don’t see any reason to believe that there is some orchestrated timing going on. Also, it’s not like a secret this big could have been kept forever.

  9. If there is a conspiracy theory about AI it’s that the banks have pumped it. Microsoft can’t even figure out what delimiter a csv file is using, you really think they can replace millions of workers?

  10. What if earth is the only place in the universe where AI is not allowed? What if some enlightened elite are doing everything they can to create it to force NHI intervention?

  11. i think it’s the nhi’s who are pressuring the people in the know to make an official disclosure.they are probably bored with abducting and probing our asses for decades now and want to learn more about the species’ lifestyle and culture.

  12. I don’t disagree. If ai advances to the point where perfection is superior it may decide that sentient life is to imperfect, it could decide we’re not worth having around as we may impede it’s plans. This is a common trope is sci-fi.

  13. Yeah, have been wondering about if AI and ET might have something to do with each other

    The other thing with AI is that it is continuously training on each iteration of knowledge that the previous iteration figured out

    So you could potentially have both the input and output of AI growing at an exponential pace

  14. No worries… the current batch of AI is not AGI (*General* intelligence), but it might be considered a *very very* primitive form of ASI (*specific* intelligence), if one were really generous. It does not create, think, feel or perceive. It simply captures creative processes and mimicks them. So your premise, I believe, is flawed from the start.

    We’ve also been working on these particular AI models for over 10 years, and progress has been slow but incremental. The granddaddy of the current AIs is that predictive typing you’ve been using for years, where you type the beginning of a phrase and the AI completes in the most probably way. The current AI is doing the same thing, but with entire paragraphs instead of phrases.

    Source: I’ve been using AI 10x/day for the last few months. [It’s not that smart.]

  15. The USNavy has a sayings it teaches it’s command officers, as I was once told by a Navy Captain. True disasters the events that remove the metal decks in between your feet and the ocean rarely occur because of just one thing.

    When unavoidable disaster happens it is a layering of at least three failures acting in concert that prevent disaster avoidance.

    We cannot see what we do not know to look for and therefore are in a poor position to understand the impactful meaning of these things.

    But.

    Given this approach. I would suspect that overall our species and our planet may have reached a tipping point in more than just area or issue and that it is that complexity of problems that will make it highly unlikely for our fractured global society to be able to save itself.

    We can add to this global weather systems/energy build up. Overcrowding and insufficient support services for vast parts of our race. Die off of species and plasticization/pollution of our environment.

    I think our capacity to absorb it all is too limited and our lack of contrast to limiting.

    If you were to imagine the word as pristine and devoid of humanity and then contrast is to our world now with us in it? I think you’ll see we have shit the bed.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *