Группа специалистов из Института наук о свете имени Макса Планка совместно с командой обсерватории LIGO разработала уникальный алгоритм, чтобы проектировать новые системы наблюдения за гравитационными волнами. Программа, названная "Уранией" в честь музы астрономии, создала ряд конструкций, которые сильно превосходят существующие образцы по эффективности.
Современные обсерватории работают на принципе интерферометрии — они измеряют, как волны взаимодействуют друг с другом. Когда встречаются световые пучки, они накладываются: могут усилить друг друга, если совпадают по фазе, или погасить, если находятся в противофазе. Благодаря такой физической особенности учёные могут заметить малейшие изменения в структуре пространства, когда через него проходит гравитационное возмущение.
Чтобы создать эффективную измерительную систему, необходимо точно настроить множество элементов: как расположить зеркала, какую мощность задать лазерам, как сконфигурировать оптические компоненты. Учёные преобразовали эту комплексную задачу в математическую проблему оптимизации и применили современные методы машинного обучения. В результате "Урания" смогла исследовать колоссальный массив возможных конфигураций приборов.
За два года виртуальный конструктор создал множество вариантов установок, которые могут расширить диапазон регистрируемых сигналов в десять и более раз. Он не только воспроизвёл известные технические приёмы, но и предложил революционные подходы к тому, как конструировать детекторы. Некоторые решения настолько нестандартны, что специалисты до сих пор пытаются разобраться, как они работают, и осмыслить логику ИИ.
После примерно двух лет разработки и работы наших алгоритмов ИИ мы обнаружили десятки новых решений, которые, похоже, лучше, чем экспериментальные чертежи ученых-людей, — отметил Кренн.
Чтобы ускорить дальнейшие исследования, научная группа создала открытый каталог — "Зоопарк детекторов", куда вошли 50 наиболее многообещающих проектов, сгенерированных нейросетью. Всё ради того, чтобы мировое сообщество могло изучать и развивать разработанные искусственным интеллектом идеи, подстраивая их под разные задачи.
"Мы вступаем в эпоху, когда автоматизированные системы находят решения, превосходящие человеческие возможности, а исследователи должны осмыслить то, что открыли машины", — отмечает доктор Кренн.
Результаты исследования опубликованы в журнале Physical Review X 11 апреля 2025 года. Ученые уверены, что подобные технологии станут неотъемлемой частью научного прогресса в будущем.
16 апреля 2025
Тут вспомнилась цитата Тима Урбана из далёкого 2015 года:
Чтобы осознать всю серьезность появления искусственного сверхразума, поместите его на две ступеньки выше человечка на картинке. Это будет не самый мощный сверхразум, но по когнитивным способностям он будет превосходить нас так же, как и мы — обезьян. Шимпанзе недоступна мысль о рукотворности небоскребов, мы же не сможем понять, на что будет способна система на темно-зеленой ступеньке — даже если она попытается нам это объяснить. О том, чтобы это повторить, даже речи не идет. А разница всего в две ступеньки. Для системы за две ступеньки до конца лестницы мы — муравьи: она может годами учить нас простейшим (с ее точки зрения) вещам и не добиться успеха.
Эксперт Шмидт: ИИ заменит большинство программистов в течение 2026 года
НЬЮ-ЙОРК, 17 апреля. /ТАСС/. Американский миллиардер и бывший исполнительный директор корпорации Google Эрик Шмидт считает, что большинство программистов может быть заменено искусственным интеллектом (ИИ) уже в течение 2026 года.
"Мы считаем как отрасль, что в течение следующего года значительное большинство программистов будет заменено ИИ", - сказал Шмидт в своем выступлении на конференции AI+ Biotechnology.
По его мнению, ИИ-модели продолжат стремительно совершенствоваться и смогут брать на себя все больше узкопрофильных задач, требующих сейчас человеческого ума. В течение ближайшего года Шмидт также ожидает, что ИИ-программы смогут справляться с математическими проблемами, над которыми работают лучшие выпускники математических факультетов. Далее в 2027 году, как считает экс-глава Google, системы искусственного интеллекта начнут самосовершенствоваться и самостоятельно корректировать и дополнять собственный исходный код.
В 2028-2030 годах Шмидт прогнозирует, что ИИ-модели смогут конкурировать с лучшими мировыми математиками, физиками, писателями или художниками. После, к 2031 году, учитывая скорость развития технологий, ИИ достигнет стадии "искусственного суперинтеллекта", когда лучшие программы окончательно смогут превзойти возможности человеческого ума и смогут функционировать и самосовершенствоваться без участия людей, утверждает Шмидт.
В этой связи он обратил внимание на то, что в мире все еще отсутствует единый подход к регулированию ИИ-технологий и управлению ими, что создает значительные риски для человечества.
17 апреля 2025
Кусок видео интервью на английском..
☝🏻🗣️ - Бывший глава Google Эрик Шмидт утверждает, что ИИ вот-вот отделится от человечества. «Компьютеры уже улучшают себя сами. Им больше не нужно нас слушать», — заявил он.
📍По его словам, через шесть лет появится ИИ, который будет умнее человечества вместе взятого — масштабируемый, рекурсивный, автономный. «У нас даже нет языка, чтобы описать то, что приближается», — добавляет Шмидт. 👀
BUYAN 📱 Подписаться



Комментарии
Ну т причем ткт ИИ?
Ведь совершенно ясно написано - Группа специалистов ..... разработала уникальный алгоритм
Расширьте свой фокус внимания.. там не много букаф
Не понимаю, как ИИ можно доверять, когда такое
https://3dnews.ru/1121538/poumnevshie-iimodeli-openai-o3-i-o4mini-proyavili-povishennuyu-sklonnost-k-gallyutsinatsiyam
У самого такой же отрицательный опыт, какое там творчество, когда на каждом шагу надо проверять.
Сложно качественно оценить проблему, но можно сделать предположение: Если всё делают правильно, но не понимают результат, то возможно система просто преодолела понимание разработчиков.. непонимание и ошибка равны по функции для наблюдателя, т.к. имеют отрицательное значение.
Кстати, была тут недавно интересная статья по теме галлюцинаций.
Нет. Она выдумывает не решения, а несуществующие факты. Вот что плохо.
Вполне возможно и то и другое.. если у вас нет понятийной базы, то ИИ вам ничего и не объяснит или объяснит так, что Вы сочтёте это за галлюцинацию.
Несуществующие ссылки например. Это не то что например нет терминов описывающих ранее неизвестное.
Да, несуществующая ссылка выглядит как ошибка и вероятно ей и является. Почему она возникла - это предмет исследования.
С другой стороны. Вы понимаете как возникают новые понятия, описывающие ранее неизвестное? Сначало это большой набор формулировок образного характера, который в процессе формализации трансформируется в конкретное слово. И уже потом это слово входит в обиход и становится носителем концентрированной информации. Если слова нет, то описание нового понятия - это достаточно творческий процесс.
В общем все сложно.. ))
Вы значит не имели такой опыт? Я несколько раз подряд ловил его на этом, он извинялся, давал новую и снова лажа. И это не раз и два, я после плюнул и разочарован в нем на 100%. Буду рад если разберутся что там у него. Как говорится кто соврет в малом, тому нет веры в остальном.
Вот ещё статья на эту тему сегодня
https://www.ixbt.com/news/2025/04/19/1959-gpt-4o.html
Машинный сopy-paste это источник проблем.
Мусор на входе порождает мусор на выходе.
Эта формулировка будет актуальна всегда и особенно критична она будет в цифровую эру.
Особо одаренные хакеры будут использовать это правило как те ребята в кожаных плащах с навуходоносора.
Так в том и проблема, интеллект - это как раз умение отбраковывать "мусор" на входе.
Интеллект - характерезует способность решать поставленные задачи. Задачи решаются через череду проб и ошибок. Отбраковывать мусор на стадии реализации решения не всегда получается.
Нет, интеллект - это в первую очередь постановка задачи. А то вы и молоток "интеллектом" назовёте, он же решает задачу!
Ну хорошо.. что это меняет? ) Постановка задачи тоже может содержать в себе ту-же ошибку. В смысле того, что такую задачу не нужно было ставить изначально.
Меняет это то, что молоток - инструмент, а не интеллект. Не умея ставить задачи нельзя и оценивать их результат. Получив ерунду в решении интеллект полезет проверять условия задачи и исходные данные, ваш ИИ даже не почешется и выдаст чушь.
Что это меняет в отношении наличия и отсутствия ошибок? Мы же об этом говорили.. Ну, вот придумали люди рентген аппарат. поставили его в обувном магазине.. проверили, все работает.. а через како-то время люди начали раком болеть больше обычного. Ошибка? Как её избежать на стадии постановки задачи? В условиях неполноты данных очень часто все не то, чем кажется. С появлением новых данных знания улучшаются или кардинально пересматриваются.. проектирование и запуск AGI, с точки зрения знаний на момент создания, ошибок может не содержать. Но может так сложиться, что человеческое мышление, по образу которого был создан искусственный интеллект, само в себе может содержать ошибки и ложное понимание каких-то основополагающих вещей. Все это на уровне проектирования уже заложено в систему. Что означает, что эти ошибки как интеллектуальный геном будут присуще и ИИ с той лишь разницей, что править его возможности у человека не будет.
Меняет то, что даже после увеличения случаев заболевания раком ИИ не сделает никаких выводов и продолжит выдавать то же решение задачи. Пока кто-то не изменит условия задачи. Это означает простую вещь: там нет интеллекта, нет мотивации. Это просто инструмент компиляции знаний для быстрого их перебора и выдачи решения по заранее заложенному алгоритму. Он не самостоятелен и в принципе не способен быть самостоятельным.
Вот тут в конце статьи есть немного зарисовок на тему того, как это может выглядеть.
По поиску "Команда стартапа Robotica"
Но я бы вам рекомендовал прочитать всю статью.. если найдете время, не пожалеете.
Зарисовки - это интересно, но причём тут они? Я фантастику люблю почитывать, но какое это имеет отношение к реальности? В книжках из пушки на Луну даже летали, и что нам с того?
Не важно обладает ИИ самостоятельностью или нет, но он вполне может выполнять заложенный алгоритм способами, недоступными человеческому пониманию и контролю. Вы не можете исправить то, чего не понимаете, но вы вполне можете столкнуться с неразрешимой проблемой тогда, когда что-либо решать и менять будет уже будет поздно.
НУ то есть ИИ для нас ещё и бесполезен, вы об этом? Потому как ставить в области, где цена ошибки критична - нельзя, потому что мы не можем гарантировать, что он српавится так, как нужно нам.
Ну, практически да.. Я о том, что чрезмерная одержимость развитием ИИ в сфере делегирования задач несёт вполне реальные риски, а развитие его в сверхразумную сущность так и вообще не имеет смысла, хотя технически это вполне выполнимая задача на мой взгляд.
Безусловно ИИ полезен, но как и любая фундаментальная технология, начиная от огня и заканчивая ядерной физикой, имеет две стороны: разрушительную и созидательную. Понимание границ применимости этой технологии ещё толком не сформировано, но есть желание создать это как можно скорее и внедрить везде, где это возможно.. Разработки ведутся в рамках устоявшегося научного подхода - эмпирическим путем, т.е. через эксперимент и коррекцию результата, что в случае с интеллектом может привести к необратимым последствиям.
Нет там нигде желания "внедрить везде", есть большое желание на хайпе ИИ заработать. Пока реального понимания у большинства нет что это такое.
Технически у этой задачи есть фундаментальная проблема для реализации: мы понятия не имеем что такое разум. Ну и другая проблема: у техники нет своих средств для контакта с реальным миром. Запертая внутри себя сущность не имеет возможности развиться в разум, в этом нет никакого смысла. Остальное - это пока теории и просто выдумки.
Все это технические задачи, которые последовательно и вполне успешно решаются. Разум - это философское понятие. Прикладное понятие - это интеллект. Умение ставить, решать задачи - можете называть это как вам угодно. То, что llm сегодня могут понимать и поддерживать разговор на уровне человека, говорит о том, что интеллект там присутствует. ИИ понимает вопросы, ставит себе задачи по поиску и формулированию ответа, умеет в рассуждения и много чего ещё..
Ну вы или слепец или вам просто поспорить очень хочется. Да и потом, одно другого не отменяет. Можно бесконечно отрицать очевидное. Вплоть до того момента, когда очевидное станет невероятным.. есть ли в этом смысл? Вам не хочется признавать очевидное, потому что это идёт в разрез с вашей точкой зрения. Можно, конечно, искать и придумывать аргументы для поддержания своей позиции бесконечно, но это в конечном счёте может свести с ума. Попробуйте как-нибудь отнестись к своей точке зрения критически. Иногда это помогает, а ещё это развивает эмпатию. )
Выход за рамки субъективного восприятия - это полезный аналитический навык и хороший инструмент для познания объективной реальности.
Во-первых, это разные понятия. И вопрос как раз в прикладном понимании "разум".
Чушь. Ничего они не понимают. Распознавать и понимать - это тоже разные понятия.
Не понимает, не ставит, не формулирует. Всё не так. ИИ - распознаёт вопрос, алгоритм заставляет ИИ искать ответ, алгоритм ответ и формирует. Проверить это легко: ИИ не способен НЕ ответить на вопрос.
Целый абзац без единого аргумента. Как отнестись критически, если критики даже от вас - нет? Я вот видел попытку внедрить модную систему в реально большую сеть. Авторов послали как детей, потому что это невыгодно экономически, выгода элементарно не перекрывает затраты на внедрение. Но это никак не мешало хайповать на внедрении "прям везде" и далее. Вы сами какие факты видели реально, а не в хайповых новостях?
Не увидел в ваших ответах контраргументации..
Подставьте в свои тезисы слово «человек» вместо «ии» и слово «логика» вместо «алгоритм» и в смысловом понимании ничего не изменится.
Последнее утверждение это про вас кстати.. есть такой особый вид упёртых глупцов... ))
Ну или Вы просто ИИ
Разница между Вами и ИИ в том, что тот хоть способен признать своё заблуждение, а что мешает делать это человеку, мне не понятно.
Да... Тяжёлый случай. Сами себя покритикуйте, может быть тогда поймёте, что там было написано в том абзаце
Изменится. "Логика" - она моя, присущая мне. "Алгоритм" - это чужая, вложенная кем-то логика. Отличаются они тем, что "логику" я могу менять в зависимости от обстоятельств, "алгоритм" я поменять сам не могу, даже если все обстоятельства поменялись.
Вы уже бредить начинаете. Каким это образом ИИ в наши дни может признать хоть что-то?
Невозможно отбраковывать мусор на входе в условиях неполноты изначальных данных. Ошибки будут всегда
После того, как у меня И Deepseek, И ChatGPT сделали АРИФМЕТИЧЕСКИЕ (!!!) ошибки в примитивных вычисления с плавающей точкой, я ОЧЕНЬ насторожено отношусь к этим поделкам. Чтобы не быть голословным - вот скрины (от двух разных систем). Я немного в а*уе...
У меня был опыт, когда DeepSeek уверенно опровергал возможность выведения согдийского языка из авестийского, сочиняя фальшивые контрпримеры и фальшивые ссылки на литературу.
Вот-вот. Все AI придумщики, опасаешься их поневоле..
Кстати, спорил с ним недавно на тему чей Кым, сначала изложил точку зрения Запада, когда ткнул его носом в Тибет, то подвис, а после ребута, изложил русскую точку зрения, МИДовскую.
.Правило Рурка
знакомая формулировка из функционального анализа и теории обработки сигналов ..
Вы что серьёзно? Сначала подумал, что это фельетон.
Вполне возможно.. мотивы какие? )
А так то да, фельетон, "зоопарк детекторов" - это очень оригинальное и даже немножечко смешно.. ) Типа: "Мы тут наплодили всякой херни, которую сами не понимаем, но считаем очень перспективной. Приходите в наш зоопарк, сами посмотрите на этих фриков.. возможно кто-то из них вам понравится"
Ещё недавно само существование гравитационных волн было тайной за семью печатями.
А сейчас свободно, при всех обсуждаются алгоритмы. Чудеса!
Позже
Напомнило..
Не, я копаюсь во всех этих ии агентных системах программирования.
У меня наверное все возможные стоят)
Года через 3-5 заменят, но кучу других програмеров они дополнят
Сейчас столько программистов в учебных заведениях хотят взрастить.. а через 3 года окажется, что всё, чему их учили, нахрен уже не нужно. Все их знания уложат в пару десятков промтов, доступных всем.
https://drive.google.com/file/d/1GaGWKIlsFtiPFScazIzq2OJ3shM-DPgF/view?usp=drive_link
Не всех, далеко не всех. Сильных программистов это только дополнит и очень мощно.
Остальные да, вымрут.
Я сижу в чате, где 17 летний пацан тащит на себе очень сложное улучшение и разработку модулей нейронок, при помощи других нейронок. Зачастую прямо на уроках)
Он гений, а нейронка этот талант раскрывает как никто
Воскрес. Таки скоро уйдет из мавзолея )))
Ну вот.. ) а кто-то тут не верит в будущее поколение.
а где брать сильных программистов, если обычных не будет? гении всегда единичны, и их на всё не хватит, даже если их обвешать нейронками по самое не могу
Этот вопрос и нужно решать в приоритетном порядке.
А те, кого он заменил нейронками, потом встретят его на улице и скажут: эй, пацанчик, надо делиться. ))
Да, бабки - зло )) Все зло из-за бабок
В пару десятков это врядли, скорее всего джуниору нужно будет знать 200,мидлу 1000, а профи 3000.
Отсюда там - лисёнок, а тут панда. Разные отсюда?
Страницы