ИИ разработал детекторы гравитационных волн, которые ученые пока не до конца понимают

Аватар пользователя oтсюда

Группа специалистов из Института наук о свете имени Макса Планка совместно с командой обсерватории LIGO разработала уникальный алгоритм, чтобы проектировать новые системы наблюдения за гравитационными волнами. Программа, названная "Уранией" в честь музы астрономии, создала ряд конструкций, которые сильно превосходят существующие образцы по эффективности. 

Современные обсерватории работают на принципе интерферометрии — они измеряют, как волны взаимодействуют друг с другом. Когда встречаются световые пучки, они накладываются: могут усилить друг друга, если совпадают по фазе, или погасить, если находятся в противофазе. Благодаря такой физической особенности учёные могут заметить малейшие изменения в структуре пространства, когда через него проходит гравитационное возмущение.

Чтобы создать эффективную измерительную систему, необходимо точно настроить множество элементов: как расположить зеркала, какую мощность задать лазерам, как сконфигурировать оптические компоненты. Учёные преобразовали эту комплексную задачу в математическую проблему оптимизации и применили современные методы машинного обучения. В результате "Урания" смогла исследовать колоссальный массив возможных конфигураций приборов.

За два года виртуальный конструктор создал множество вариантов установок, которые могут расширить диапазон регистрируемых сигналов в десять и более раз. Он не только воспроизвёл известные технические приёмы, но и предложил революционные подходы к тому, как конструировать детекторы. Некоторые решения настолько нестандартны, что специалисты до сих пор пытаются разобраться, как они работают, и осмыслить логику ИИ.

После примерно двух лет разработки и работы наших алгоритмов ИИ мы обнаружили десятки новых решений, которые, похоже, лучше, чем экспериментальные чертежи ученых-людей, — отметил Кренн.

Чтобы ускорить дальнейшие исследования, научная группа создала открытый каталог — "Зоопарк детекторов", куда вошли 50 наиболее многообещающих проектов, сгенерированных нейросетью. Всё ради того, чтобы мировое сообщество могло изучать и развивать разработанные искусственным интеллектом идеи, подстраивая их под разные задачи.

"Мы вступаем в эпоху, когда автоматизированные системы находят решения, превосходящие человеческие возможности, а исследователи должны осмыслить то, что открыли машины", — отмечает доктор Кренн.

Результаты исследования опубликованы в журнале Physical Review X 11 апреля 2025 года. Ученые уверены, что подобные технологии станут неотъемлемой частью научного прогресса в будущем.

16 апреля 2025


Тут вспомнилась цитата Тима Урбана из далёкого 2015 года:

Чтобы осознать всю серьезность появления искусственного сверхразума, поместите его на две ступеньки выше человечка на картинке. Это будет не самый мощный сверхразум, но по когнитивным способностям он будет превосходить нас так же, как и мы — обезьян. Шимпанзе недоступна мысль о рукотворности небоскребов, мы же не сможем понять, на что будет способна система на темно-​зеленой ступеньке — даже если она попытается нам это объяснить. О том, чтобы это повторить, даже речи не идет. А разница всего в две ступеньки. Для системы за две ступеньки до конца лестницы мы — муравьи: она может годами учить нас простейшим (с ее точки зрения) вещам и не добиться успеха.

отсюда


Эксперт Шмидт: ИИ заменит большинство программистов в течение 2026 года

НЬЮ-ЙОРК, 17 апреля. /ТАСС/. Американский миллиардер и бывший исполнительный директор корпорации Google Эрик Шмидт считает, что большинство программистов может быть заменено искусственным интеллектом (ИИ) уже в течение 2026 года.

"Мы считаем как отрасль, что в течение следующего года значительное большинство программистов будет заменено ИИ", - сказал Шмидт в своем выступлении на конференции AI+ Biotechnology.

По его мнению, ИИ-модели продолжат стремительно совершенствоваться и смогут брать на себя все больше узкопрофильных задач, требующих сейчас человеческого ума. В течение ближайшего года Шмидт также ожидает, что ИИ-программы смогут справляться с математическими проблемами, над которыми работают лучшие выпускники математических факультетов. Далее в 2027 году, как считает экс-глава Google, системы искусственного интеллекта начнут самосовершенствоваться и самостоятельно корректировать и дополнять собственный исходный код.

В 2028-2030 годах Шмидт прогнозирует, что ИИ-модели смогут конкурировать с лучшими мировыми математиками, физиками, писателями или художниками. После, к 2031 году, учитывая скорость развития технологий, ИИ достигнет стадии "искусственного суперинтеллекта", когда лучшие программы окончательно смогут превзойти возможности человеческого ума и смогут функционировать и самосовершенствоваться без участия людей, утверждает Шмидт.

В этой связи он обратил внимание на то, что в мире все еще отсутствует единый подход к регулированию ИИ-технологий и управлению ими, что создает значительные риски для человечества.

17 апреля 2025


Кусок видео интервью на английском..

☝🏻🗣️ - Бывший глава Google Эрик Шмидт утверждает, что ИИ вот-вот отделится от человечества. «Компьютеры уже улучшают себя сами. Им больше не нужно нас слушать», — заявил он.

📍По его словам, через шесть лет появится ИИ, который будет умнее человечества вместе взятого — масштабируемый, рекурсивный, автономный. «У нас даже нет языка, чтобы описать то, что приближается», — добавляет Шмидт. 👀

BUYAN 📱 Подписаться

Авторство: 
Копия чужих материалов

Комментарии

Аватар пользователя Византий
Византий(6 лет 9 месяцев)

Группа специалистов из Института наук о свете имени Макса Планка совместно с командой обсерватории LIGO разработала уникальный алгоритм, чтобы проектировать новые системы наблюдения за гравитационными волнами

Ну т причем ткт ИИ?

Ведь совершенно ясно написано -  Группа специалистов ..... разработала уникальный алгоритм

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Расширьте свой фокус внимания.. там не много букаф

Аватар пользователя очередь
очередь(11 лет 2 месяца)

Не понимаю, как ИИ можно доверять, когда такое

https://3dnews.ru/1121538/poumnevshie-iimodeli-openai-o3-i-o4mini-proyavili-povishennuyu-sklonnost-k-gallyutsinatsiyam

У самого такой же отрицательный опыт, какое  там творчество, когда на каждом шагу надо проверять.

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Сторонний тест Transluce, проведённый независимым разработчиком, показал, что o3 имеет склонность выдумывать действия, которые она якобы предпринимала при подготовке ответов. В одном из случаев она утверждала, что запускала программный код на Apple MacBook Pro 2021 года «вне ChatGPT» и копировала числа в свой ответ. При этом у o3 действительно есть доступ к некоторым инструментам, но выполнить такое действие она не могла.

Сложно качественно оценить проблему, но можно сделать предположение: Если всё делают правильно, но не понимают результат, то возможно система просто преодолела понимание разработчиков..  непонимание и ошибка равны по функции для наблюдателя, т.к. имеют отрицательное значение.

Кстати, была тут недавно интересная статья по теме галлюцинаций.

Аватар пользователя очередь
очередь(11 лет 2 месяца)

возможно система просто преодолела понимание разработчиков..  непонимание и ошибка равны по функции для наблюдателя, т.к. имеют отрицательное значение.

Нет. Она выдумывает не решения, а несуществующие факты. Вот что плохо.

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Вполне возможно и то и другое.. если у вас нет понятийной базы, то ИИ вам ничего и не объяснит или объяснит так, что Вы сочтёте это за галлюцинацию. 

Аватар пользователя очередь
очередь(11 лет 2 месяца)

Несуществующие ссылки например. Это не то  что например нет терминов описывающих ранее неизвестное.

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Да, несуществующая ссылка выглядит как ошибка и вероятно ей и является. Почему она возникла - это предмет исследования.

С другой стороны. Вы понимаете как возникают новые понятия, описывающие ранее неизвестное?  Сначало это большой набор формулировок образного характера, который в процессе формализации трансформируется в конкретное слово. И уже потом это слово входит в обиход и становится носителем концентрированной информации.  Если слова нет, то описание нового понятия - это достаточно творческий процесс. 

В общем все сложно.. ))  

Аватар пользователя очередь
очередь(11 лет 2 месяца)

Вы значит не имели такой опыт? Я несколько раз подряд ловил его на этом, он извинялся, давал новую и снова лажа. И это не раз и два, я после плюнул и разочарован в нем на 100%. Буду рад если разберутся что там у него. Как говорится кто соврет в малом, тому нет веры в остальном.

Аватар пользователя очередь
очередь(11 лет 2 месяца)

Вот ещё статья на эту тему сегодня 

 https://www.ixbt.com/news/2025/04/19/1959-gpt-4o.html

Машинный сopy-paste это источник проблем. 

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Мусор на входе порождает мусор на выходе. 

Эта формулировка будет актуальна всегда и особенно критична она будет в цифровую эру.

Особо одаренные хакеры будут использовать это правило как те ребята в кожаных плащах с навуходоносора.

Аватар пользователя nefelin
nefelin(6 лет 10 месяцев)

Так в том и проблема, интеллект - это как раз умение отбраковывать "мусор" на входе. 

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Интеллект - характерезует способность решать поставленные задачи. Задачи решаются через череду проб и ошибок. Отбраковывать мусор на стадии реализации решения не всегда получается. 

Аватар пользователя nefelin
nefelin(6 лет 10 месяцев)

Нет, интеллект - это в первую очередь постановка задачи. А то вы и молоток "интеллектом" назовёте, он же решает задачу! 

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Ну хорошо.. что это меняет? ) Постановка задачи тоже может содержать в себе ту-же ошибку. В смысле того, что такую задачу не нужно было ставить изначально.

Аватар пользователя nefelin
nefelin(6 лет 10 месяцев)

Меняет это то, что молоток - инструмент, а не интеллект. Не умея ставить задачи нельзя и оценивать их результат. Получив ерунду в решении интеллект полезет проверять условия задачи и исходные данные, ваш ИИ даже не почешется и выдаст чушь. 

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Что это меняет в отношении наличия и отсутствия ошибок?  Мы же об этом говорили.. Ну, вот придумали люди рентген аппарат. поставили его в обувном магазине.. проверили, все работает.. а через како-то время люди начали раком болеть больше обычного. Ошибка? Как её избежать на стадии постановки задачи? В условиях неполноты данных очень часто все не то, чем кажется. С появлением новых данных знания улучшаются или кардинально пересматриваются.. проектирование и запуск AGI,  с точки зрения знаний на момент создания, ошибок может не содержать. Но может так сложиться, что человеческое мышление, по образу которого был создан искусственный интеллект, само в себе может содержать ошибки и ложное понимание каких-то основополагающих вещей. Все это на уровне проектирования уже заложено в систему.   Что означает, что эти ошибки как интеллектуальный геном будут присуще и ИИ с той лишь разницей, что править его возможности у человека не будет. 

Аватар пользователя nefelin
nefelin(6 лет 10 месяцев)

Меняет то, что даже после увеличения случаев заболевания раком ИИ не сделает никаких выводов и продолжит выдавать то же решение задачи. Пока кто-то не изменит условия задачи. Это означает простую вещь: там нет интеллекта, нет мотивации. Это просто инструмент компиляции знаний для быстрого их перебора и выдачи решения по заранее заложенному алгоритму. Он не самостоятелен и в принципе не способен быть самостоятельным. 

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Пока кто-​то не изменит условия задачи.

Вот тут в конце статьи есть немного зарисовок на тему того, как это может выглядеть. 

По поиску "Команда стартапа Robotica"

Но я бы вам рекомендовал прочитать всю статью.. если найдете время, не пожалеете.

Аватар пользователя nefelin
nefelin(6 лет 10 месяцев)

Зарисовки - это интересно, но причём тут они? Я фантастику люблю почитывать, но какое это имеет отношение к реальности? В книжках из пушки на Луну даже летали, и что нам с того?

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Не важно обладает ИИ самостоятельностью или нет, но он вполне может выполнять заложенный алгоритм способами, недоступными человеческому пониманию и контролю. Вы не можете исправить то, чего не понимаете, но вы вполне можете столкнуться с неразрешимой проблемой тогда, когда что-либо решать и менять будет уже будет поздно.

Аватар пользователя nefelin
nefelin(6 лет 10 месяцев)

НУ то есть ИИ для нас ещё и бесполезен, вы об этом? Потому как ставить в области, где цена ошибки критична - нельзя, потому что мы не можем гарантировать, что он српавится так, как нужно нам. 

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Ну, практически да.. Я о том, что чрезмерная одержимость развитием ИИ в сфере делегирования задач несёт вполне реальные риски, а развитие его в сверхразумную сущность так и вообще не имеет смысла, хотя технически это вполне выполнимая задача на мой взгляд.  

Безусловно ИИ полезен, но как и любая фундаментальная технология, начиная от огня и заканчивая ядерной физикой, имеет две стороны: разрушительную и созидательную. Понимание границ применимости этой технологии ещё толком не сформировано, но есть желание создать это как можно скорее и внедрить везде, где это возможно.. Разработки ведутся в рамках устоявшегося научного подхода - эмпирическим путем, т.е. через эксперимент и коррекцию результата, что в случае с интеллектом может привести к необратимым последствиям. 

Аватар пользователя nefelin
nefelin(6 лет 10 месяцев)

Нет там нигде желания "внедрить везде", есть большое желание на хайпе ИИ заработать. Пока реального понимания у большинства нет что это такое. 

развитие его в сверхразумную сущность так и вообще не имеет смысла, хотя технически это вполне выполнимая задача на мой взгляд.  

Технически у этой задачи есть фундаментальная проблема для реализации: мы понятия не имеем что такое разум. Ну и другая проблема: у техники нет своих средств для контакта с реальным миром. Запертая внутри себя сущность не имеет возможности развиться в разум, в этом нет никакого смысла. Остальное - это пока теории и просто выдумки. 

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Все это технические задачи, которые  последовательно и вполне успешно решаются. Разум - это философское понятие. Прикладное понятие - это интеллект. Умение ставить, решать задачи - можете называть это как вам угодно. То, что llm сегодня могут понимать и поддерживать разговор на уровне человека, говорит о том, что интеллект там присутствует. ИИ понимает вопросы, ставит себе задачи по поиску и формулированию ответа, умеет в рассуждения и много чего ещё.. 

Нет там нигде желания "внедрить везде", есть большое желание на хайпе ИИ заработать.

Ну вы или слепец или вам просто поспорить очень хочется. Да и потом, одно другого не отменяет. Можно бесконечно отрицать очевидное. Вплоть до того момента, когда очевидное станет невероятным.. есть ли в этом смысл?  Вам не хочется признавать очевидное, потому что это идёт в разрез с вашей точкой зрения. Можно, конечно, искать и придумывать аргументы для поддержания своей позиции бесконечно, но это в конечном счёте может свести с ума. Попробуйте как-нибудь отнестись к своей точке зрения критически. Иногда это помогает, а ещё это развивает эмпатию. )

Эмпатия — это умение распознавать эмоции и чувства другого человека, понимать его внутреннее состояние. Определение сформулировал Зигмунд Фрейд, когда рекомендовал психоаналитикам ставить себя на место своего пациента, чтобы лучше разобраться в его переживаниях.

 Выход за рамки субъективного восприятия - это полезный аналитический навык и хороший инструмент для познания объективной реальности.  

Аватар пользователя nefelin
nefelin(6 лет 10 месяцев)

Разум - это философское понятие. Прикладное понятие - это интеллект.

Во-первых, это разные понятия. И вопрос как раз в прикладном понимании "разум". 

То, что llm сегодня могут понимать и поддерживать разговор на уровне человека,

Чушь. Ничего они не понимают. Распознавать и понимать - это тоже разные понятия. 

 ИИ понимает вопросы, ставит себе задачи по поиску и формулированию ответа, умеет в рассуждения и много чего ещё.

Не понимает, не ставит, не формулирует. Всё не так. ИИ - распознаёт вопрос, алгоритм заставляет ИИ искать ответ, алгоритм ответ и формирует. Проверить это легко: ИИ не способен НЕ ответить на вопрос. 

Ну вы или слепец или вам просто поспорить очень хочется. 

Целый абзац без единого аргумента. Как отнестись критически, если критики даже от вас - нет? Я вот видел попытку внедрить модную систему в реально большую сеть. Авторов послали как детей, потому что это невыгодно экономически, выгода элементарно не перекрывает затраты на внедрение. Но это никак не мешало хайповать на внедрении "прям везде" и далее. Вы сами какие факты видели реально, а не в хайповых новостях?

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Не увидел в ваших ответах контраргументации..

Подставьте в свои тезисы слово «человек» вместо «ии»  и слово «логика» вместо «алгоритм» и в смысловом понимании  ничего не изменится.

Не понимает, не ставит, не формулирует. Всё не так. ИИ - распознаёт вопрос, алгоритм заставляет ИИ искать ответ, алгоритм ответ и формирует. Проверить это легко: ИИ не способен НЕ ответить

Последнее утверждение это про вас кстати.. есть такой особый вид упёртых глупцов... )) 

Ну или Вы просто ИИ smile1.gif

Разница между Вами и ИИ в том, что тот хоть способен признать своё заблуждение, а что мешает делать это человеку, мне не понятно. 

Целый абзац без единого аргумента. Как отнестись критически, если критики даже от вас - нет?

Да... Тяжёлый случай. Сами себя покритикуйте, может быть тогда поймёте, что там было написано в том абзаце 

Аватар пользователя nefelin
nefelin(6 лет 10 месяцев)

Представьте в свои тезисы слово «человек» вместо «ии»  и слово «логика» вместо «алгоритм» и в смысловом понимании  ничего не изменится.

Изменится. "Логика" - она моя, присущая мне. "Алгоритм" - это чужая, вложенная кем-то логика. Отличаются они тем, что "логику" я могу менять в зависимости от обстоятельств, "алгоритм" я поменять сам не могу, даже если все обстоятельства поменялись. 

Разница между Вами и ИИ в том, что тот хоть способен признать своё заблуждение, а что мешает делать это человеку, мне не понятно. 

Вы уже бредить начинаете. Каким это образом ИИ в наши дни может признать хоть что-то? 

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Невозможно отбраковывать мусор на входе в условиях неполноты изначальных данных. Ошибки будут всегда 

Аватар пользователя DPK
DPK(7 лет 5 месяцев)

После того, как у меня И Deepseek, И ChatGPT сделали АРИФМЕТИЧЕСКИЕ (!!!) ошибки в примитивных вычисления с плавающей точкой, я ОЧЕНЬ насторожено отношусь к этим поделкам. Чтобы не быть голословным - вот скрины (от двух разных систем). Я немного в а*уе...

Аватар пользователя blkpntr
blkpntr(10 лет 1 месяц)

У меня был опыт, когда DeepSeek уверенно опровергал возможность выведения согдийского языка из авестийского, сочиняя фальшивые контрпримеры и фальшивые ссылки на литературу.

Аватар пользователя очередь
очередь(11 лет 2 месяца)

Вот-вот. Все AI придумщики, опасаешься их поневоле..

Аватар пользователя очередь
очередь(11 лет 2 месяца)

Кстати, спорил с ним недавно на тему чей Кым, сначала изложил точку зрения Запада, когда ткнул его носом в Тибет, то подвис, а после ребута, изложил русскую точку зрения, МИДовскую.

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

.Правило Рурка

Никогда не вступайте в сражение с неодушевленным объектом.

Аватар пользователя Святoй Ковид
Святoй Ковид(3 года 9 месяцев)

Мусор на входе порождает мусор на выходе

знакомая формулировка из функционального анализа и  теории обработки сигналов ..

Комментарий администрации:  
*** отключен (набросы) ***
Аватар пользователя Liker
Liker(10 лет 1 месяц)

Вы что серьёзно? Сначала подумал, что это фельетон. 

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Сначала подумал, что это фельетон. 

Вполне возможно..  мотивы какие? ) 

А так то да, фельетон, "зоопарк детекторов" - это очень оригинальное и даже немножечко смешно.. )  Типа: "Мы тут наплодили всякой херни, которую сами не понимаем, но считаем очень перспективной. Приходите в наш зоопарк, сами посмотрите на этих фриков.. возможно кто-то из них вам понравится" 

Аватар пользователя Abram Gutang
Abram Gutang(10 лет 6 месяцев)

Ещё недавно само существование гравитационных волн было тайной за семью печатями.

А сейчас свободно, при всех обсуждаются алгоритмы. Чудеса!

Аватар пользователя Tegucigalpa
Tegucigalpa(1 год 10 месяцев)

в течение 2026 года

Позже

Комментарий администрации:  
*** отключен (невменяемое общение) ***
Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)
Аватар пользователя Tegucigalpa
Tegucigalpa(1 год 10 месяцев)

Не, я копаюсь во всех этих ии агентных системах программирования.
У меня наверное все возможные стоят)
Года через 3-5 заменят, но кучу других програмеров они дополнят

Комментарий администрации:  
*** отключен (невменяемое общение) ***
Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Сейчас столько программистов в учебных заведениях хотят взрастить.. а через 3 года окажется, что всё, чему их учили, нахрен уже не нужно. Все их знания уложат в пару десятков промтов, доступных всем. 

Аватар пользователя Tegucigalpa
Tegucigalpa(1 год 10 месяцев)

https://drive.google.com/file/d/1GaGWKIlsFtiPFScazIzq2OJ3shM-DPgF/view?usp=drive_link

Не всех, далеко не всех. Сильных программистов это только дополнит и очень мощно.
Остальные да, вымрут.

Я сижу в чате, где 17 летний пацан тащит на себе очень сложное улучшение и разработку модулей нейронок, при помощи других нейронок. Зачастую прямо на уроках)

Он гений, а нейронка этот талант раскрывает как никто

Комментарий администрации:  
*** отключен (невменяемое общение) ***
Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Воскрес. Таки скоро уйдет из мавзолея )))

Я сижу в чате, где 17 летний пацан тащит на себе очень сложное улучшение и разработку модулей нейронок, при помощи других нейронок. Зачастую прямо на уроках)

Он гений, а нейронка этот талант раскрывает как никто

Ну вот.. ) а кто-то тут не верит в будущее поколение.

Аватар пользователя Ivor
Ivor(13 лет 5 месяцев)

а где брать сильных программистов, если обычных не будет? гении всегда единичны, и их на всё не хватит, даже если их обвешать нейронками по самое не могу

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Этот вопрос и нужно решать в приоритетном порядке. 

Аватар пользователя ИЮЛь Майский
ИЮЛь Майский(9 лет 10 месяцев)

17 летний пацан тащит на себе очень сложное улучшение и разработку модулей нейронок, при помощи других нейронок.

А те, кого он заменил нейронками, потом встретят его на улице и скажут: эй, пацанчик, надо делиться. ))

Аватар пользователя oтсюда
oтсюда(1 год 8 месяцев)

Да, бабки - зло )) Все зло из-за бабок smile1.gif

Аватар пользователя Liker
Liker(10 лет 1 месяц)

В пару десятков это врядли, скорее всего джуниору нужно будет знать 200,мидлу 1000, а профи 3000. smile3.gif

Аватар пользователя Pilm
Pilm(11 лет 10 месяцев)

Отсюда там - лисёнок, а тут панда. Разные отсюда?

Страницы