Охотники за инопланетянами обращаются к технологии искусственного интеллекта, получившей название «Святой Грааль», обещающей «точность 90%»

От admin #Внеземные существа, #Внекосмические существа, #Внешний вид пришельцев, #Загадки инопланетного воздействия, #Загадки инопланетных цивилизаций, #ЗагадкиИнопланетныхЦивилизаций, #ЗагадочныеЯвления., #Заговоры, #ЗаговорыВИстории, #ЗаговорыВМедиа, #ЗаговорыГосударств, #ЗаговорыМировыхЛидеров, #Иллюминаты, #Инопланетная жизнь, #Инопланетные существа в кино, #Инопланетные технологии, #ИнопланетныеВоздействия, #ИнопланетныеИсследования, #ИнопланетныеТехнологии, #Инопланетяне, #ИнтеракцияСИнопланетянами, #Интракосмические существа, #Исследование инопланетной жизни, #ИсследованиеИнопланетнойЖизни, #Конспирология, #Контакт с инопланетянами, #Контактные СИнопланетянами, #Космические пришельцы, #МанипуляцияМассами, #Межзвездные путешествия, #Научная фантастика, #НаучнаяОбщаяФантастика, #Популярные о пришельцах, #Пришельцы в алфавите, #ПришельцыВМедиа. ТеорияЗаговора, #ПришельцыВНауке, #ПришельцыИлюди, #связанные с пришельцами, #СекретныеОрганизации, #СекретыГосударственнойВласти, #СекретыТехнологий, #СкрытыеСилы, #СовременныеТайны, #Способы достиженияСПришельцами, #Способы общения с пришельцами, #СпрятанныеПравды, #ТайныеЗаговоры, #Телешоу на инопланетянах, #Теории заговоров о пришельцах, #ТеорииГосударстваОпришельцах, #ТеорииЗаговораОБиологии, #ТеорииЗаговораОмедицин е, #ТеорииЗаговораОпришельцами, #Уроки инопланетной истории. 窗体顶端 窗体底端 ЭкспериментыПришельцев, #Фантастические инопланетяне, #Фильмы о пришельцах, #Фэндом пришельцев, #Экзобиология, #ЭкспериментальнаяНаука, #ЭкспериментыНадЛюдьми, #Явления
1k9qsbuo1jytl


Охотники за инопланетянами обращаются к технологии искусственного интеллекта, получившей название «Святой Грааль», обещающей «точность 90%»

От admin

9 комментарий для “Охотники за инопланетянами обращаются к технологии искусственного интеллекта, получившей название «Святой Грааль», обещающей «точность 90%»”
  1. Okay, their paper isn’t public [https://www.pnas.org/doi/10.1073/pnas.2307149120](https://www.pnas.org/doi/10.1073/pnas.2307149120)

    But their code is [https://github.com/ghystad/Machine_learning_and_preprocessing_pyr_GSMS_data/tree/master](https://github.com/ghystad/Machine_learning_and_preprocessing_pyr_GSMS_data/tree/master)

    Unfortunately, my days of doing R have certainly come to a middle, I can’t find how they’re partitioning their data for the training by just quickly scanning through the code.

    The main thing I wanted to find was the metric they use to determine the quality of their classifier. According to the abstract of the paper (that’s basically just quoted in the article), they’re achieving 90% accuracy with their machine. Great. That number doesn’t mean much without knowing more about the data. Classifiers using accuracy as a metric are very vulnerable to a thing called «class imbalance» — simple example:

    Imagine you want to make the good old «cat vs dog» classifier and make a machine that can tell whether the animal in your picture is a cat or a dog. You use accuracy as your success metric, which means you check how many times your classifier gives the right answer. If you have 100 images to train it on, and they show 50 dogs and 50 cats, fantastic.

    But if you have 100 images, and 90 show dogs and 10 show cats, the fastest and most effective «algorithm» is to just say dog *every time*. No check, no nothing. And you’d be 90% accurate.

    On the face of it, accuracy sounds like a reasonable metric, but it isn’t always, and they’re not telling us the details of the dataset, and there’s no obvious check for this in the training code either, at least not one that I saw. And you’d be surprised how many people go for the «let’s just use AI!» approach and overlook these details when training.

    Let’s wait and see, but without the paper being in the public domain, it’s hard to trust the results of this «holy grail».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *