Обучение ИИ созданию баз данных с помощью подкастов и документов
Похожие записи:
Буй или тик-так?? Это выглядит знакомо?
Доктор Диана Уолш Пасулка Интервью
Таинственный предмет полицейской охраны обнаружен на отдаленном пляже штата Вашингтон
Шоу Шона Райана
Готовы ли мы к раскрытию информации через удобные средства массовой информации? Jules — предстоящий фильм о EBIN (он же серпотип ET) для бумеров.
Детские воспоминания об НЛО
Я не полностью доверяю доктору Стивену Гриру… но на его канале YouTube есть несколько убедительных интервью, которые он загрузил более 9 лет назад. Многие из них выглядят так, как будто они были записаны в конце 90-х начале 2000-х.
в интервью Култхарта Грушу есть часть, где его спрашивают о ремесле Розуэлла, и он говорит что-то очень интересное…
Новая эра авиационной безопасности — Подготовка к UAP (НЛО) — с Ией Уайтли | Объединенный подкаст EP 12
Кристина Гомес и Синдром Марфана, ходят ли среди нас инопланетяне, живое шоу, безответственный подкаст
I would be excited to dig around in whatever database this ufo AI has. That would be a great tool. I hope it does a good job of labeling the speculation vs what the person being interviewed states as fact.
Original tweet found [here.](https://twitter.com/isaackoi/status/1679576192842694658?s=46&t=PEAXzfjeTgZ99do7qMXyuA) really excited for the use of AI in building databases of all sorts, especially for historical records in whatever form. I think there’s going to be explosion in reassessing history soon once more people got out how to use the new tools.
Interesting, i’ve been working on a related project for chatting with UK sighting data converting the reports and some generated meta fields into a vector embedding with a sentence transformer and then doing semantic search.
For example a natural language query would be «Sightings that involved circular craft» and it would return records it determines to be semantically relevant (it would return say a description with circle/saucer/circular instead of just a keyword search for circular). Currently prototyping using an open source LLM (I’m using Wizard LM 7b) to infer filter commands and running them on the returned data from the initial query, this is running locally without an internet connection which is pretty cool.
Interested in seeing where the project in the OP goes, i think i would be worried about hallucinations or muddied responses if training a new model (i think in this case fine tuning is more applicable).
Here is the blogpost: [https://isaackoiup.blogspot.com/2023/07/ai-assisted-ufology-has-begun-ufo.html](https://isaackoiup.blogspot.com/2023/07/ai-assisted-ufology-has-begun-ufo.html)
And here are the files: [https://files.afu.se/Downloads/?dir=.%2FTranscripts](https://files.afu.se/Downloads/?dir=.%2FTranscripts)
u/isaackoi You should also add all the full-text data from NUFORC and MUFON witness reports.
I hope you have enough proofreaders to go over those transcribed podcasts, AI transcription can misunderstand spoken words (everyone who ever turned on automatic captions on YT knows what I’m talking about)
Any word on where they are getting the millions of dollars it would cost?