Описаны новые релизи (2.0 и 2.1) онлайн каталога истоничков Чандры. В версии 2.1 более 400 000 источников.
Описание очень детальное - чтобы можно было работать с каталогом. Так что это все именно для тех, кто будет каталог использовать в работе.
Отличное изложение основ астрометрических наблюдений двойных систем. Все описано очень понятно, но при этом четко освещены все ключевые вопросы на уровне, который в самом деле позволяет разобраться в том, как все это работает.
Речь идет о системах, где мы видим только одну звезду. Второй компонент системы (им может быть и слабая звезда, и компактный объект, и бурый карлик, и планета. Да вообще - что угодно, что обладает достаточной массой, чтобы повлиять на видимое положение звезды) остается невидимым. Но его наличие можно четко определить, а кроме того - измерить его массу. Благодаря данным с Gaia такие исследования сейчас очень актуальны. Уже открыто множество интересных систем (например, с черными дырами). А совсем скоро (когда выйдет новый релиз) начнутся массовые открытия экзопланет по данным Gaia. Так что - самое время разобраться в основах методики.
Полезное руководство для тех, кто начинает работать с рентгеновскими спектрами. См. также arxiv:2309.07577 про моделирование рентгеновских спектров.
Очень кратко описано, как работает научный архив Европейской Южной Обсерватории (ESO).
После (как правило) годичного периода времени, когда результаты наблюдений доступны авторам соответствующей заявки, данные с разных инструментов попадают в научный архив, где уже доступны широкому международному сообществу астрономов. В статье приведены все основные ссылки, правила и тп.
Все любят красивые картинки! Астрономия - один из лучших источников. Но картинки не только для развлечения. И даже не только для образования и всяких методологических целей. В статье авторы рассматривают методы и тенденции в визуализации данных в современной астрономии.
По сути, это студенческий реферат, но очень хороший. Ни картинок, ни формул. Но понятно описано кто, что и зачем. Приведены ссылки - так что дальше можно углубляться. Подходит для первоначального ознакомления с предметом, а также как аннотированный набор ссылок на сежие проекты.
По сути, это студенческий реферат, но очень хороший. Ни картинок, ни формул. Но понятно описано кто, что и зачем. Приведены ссылки - так что дальше можно углубляться. Подходит для первоначального ознакомления с предметом, а также как аннотированный набор ссылок на сежие проекты.
Мое внимание периодически привллекают работы (выделю здесь деятельность группы Бердюгиной), посвященные возможному построению карт потенциально обитаемых планет с помощью телескопов следующего поколения. Это одна из них.
Собственно, статья посвящена методу обработки данных. Интересно, что автор применяет методику к наблюдениям Земли из точки L1 с помощью инструмента DSCOVR.
Авторы тщательно прошлись по данным наблюдений на 64-метровом радиотелескопе в Парксе за 1997-2001 гг. в поисках быстрых радиовсплесков и похожих на них явлений.
Период наблюдений частично перекрывается (2001 г.) с тем, где уже искали. В частности, алгоритм выявил 4 уже известных всплеска. Ну и обнаружил один новый. С учетом того, что данные тогда были похуже, чем позже, 5 всплесков находятся в соответствии с ожиданиями. Другое дело, что все 5 - за 2001 г. Вероятность того, что за 1997-2000 г. не было ни одного не так уж велика. Но пока и не ужасает. В пределах 2-сигма результат соответствует случайному распределению всплесков по времени.
В общем, мораль такова, что БРВ теперь будут успешно открываться новыми телескопами и детекторами, а в архивах уже мало что можно найти в дополнение к тому, что уже сделано.
Статья лишь отчасти первоапрельская.
В статье приводятся довольно очевидные вещи, касающиеся представления результатов и использования статистических терминов. Однако коллеги тут часто допускают ошибки. Для студентов прямо ОЧЕНЬ полезная статья.
В статье описаны ожидаемые характеристики спутника CHEOPS в смысле собственно получения научных данных: точность фотометрии и тп.
Напомню, что CHEOPS имеет 30-сантиметровый телескоп. Его цель - высокоточная фотометрия звезд от 6 до 12 звездной величины, у которых уже зарегистрированы планеты методом измерения вариации лучевых скоростей.
Статья необходима всем, кто планирует использовать данные CHEOPS. Спутник начинает свою научную работу, которая продлится минимум до 2024 года.
Описаны открытые данные наблюдений на LIGO/VIRGO в первом и втором циклах. Соответственно, все желающие могут независимо провести полную переобработку. Наверное, такая обработка будет приводить (и прецеденты уже были) к заявлениям о выделении новых всплесков (скажем, ниже триггера, использовавшегося коллаборацией LIGO).
В общем-то популярная статья о том, как получали изображение течения вокруг сверхмассивной черной дыры в М87. Понятно (без деталей, но с картинками) описана роль различных инструментов, в первую очередь - ALMA. Очень наглядно видно, что для чего нужно.
Это и в самом деле отличное учебное пособие. Очень понятное введение для тех, кто только начинает работать с астрономическими данными. По верхам описана работа с несколькими архивами данных и программами их обработки. Это не исчерпывающий мануал (даже близко), но хороший стартовый пункт.
Существенно, что даже тот, кто никогда с данными не работал и ни разу не астроном, все равно может, пользуясь этим руководством интересно поиграться с кучей публично доступных данных, включая хаббловские.
Я бы не сказал, что обзор прямо уж очень практический, что не делает его хуже. Автор перечисляет задачи и методы, сопровождая все краткими понятными пояснениями и ссылками. Т.е., все-таки за "практической" частью надо будет обратиться к первоисточникам, а обзор представляет большой список таковых.
Начиная с января в Архиве начали появляться white papers к следующему decadal survey по астрофизике. Такой отчет создается каждые 10 лет, и является основой для формирования общей политики в американской астрофизике. НА предварительном этапе разные исследовательские группы присылают свои небольшие (страниц на 10) заметки, призванные очертить современное состояние дел в какой-то области астрофизики, ключевые задачи и возмодные пути решения (в первую очередь, имеется ввиду, какие ресурсы для этого нужны: телескопы, компьютеры и тп.) На март пришелся пик таких публикаций в Архиве. Появилось уже около 200 статей. Сообщество, таким образм, проделывает колоссальную и очень важную работу по осмыслению того, куда и как двигаться, какие задачи наиболее актуальны, и что надо предпринять для их решения.
В данной заметке речь идет об астроинформатике и астростатистике. Современные возможности работы с данными позволяют ставить и решать множество актуальных задач, используя уже имеющиеся наблюдательные данные. Ясно, что эта область продолжит бурно развиваться. Авторы формулируют, какие организационные училия нужны для более эффективного развития. Ключевой момент - официально признать астростатистику и астроинформатику в качестве отдельной важной области, а не как техническое дополнение к конкретным исследованиям.
Авторы переобработали данные 2001 г., в которых был обнаружен первый - т.н., лоримеровский (по фамилии первого автора статьи), - быстрый радиовсплеск, и открыли еще один. По дате наблюдения он получил обозначение FRB010312. Это самый широкий (т.е., длинный) из известных всплесков. Кроме того, у него одна из самых больших мер дисперсии.
Т.о., полагают авторы, в данных могут быть и другие пока невыявленные быстрые радиовсплески.
Поскольку выявлять всплески (а особенно отличать их от помех) - очень сложная задача, астрономы начинают применять все более сложные алгоритмы. В частности, - нейронные сети. Об этом можно прочесть в arxiv:1902.06343.
Авторы показывают, что в большинстве случаев (исключая очень большие значения сигнал/шум) кеплеровские планеты с малыми радиусами и большими полуосями (в первую очередь - двойники Земли) требуют независимых наблюдений для окончательного подтверждения. Речь не идет о том, что все или большинство таких регистраций под вопросом. Авторы полагают, что в целом статистика по таким планетам, полученная по данным Кеплера, верна. Однако в каждом конкретном случае необходимо, чтобы наличие планеты было подтверждено на другом инструменте, т.к. в данных Кеплера есть достаточно много шумов, которые для долгопериодических планет (для которых за все время работы миссии не удалось пронаблюдать много орбитальных периодов) могут приводить к ложным результатам. В качестве примера авторы выбирают планету kepler-452b. Опять же, речь не идет о "закрытии" этой планеты, а лишь о том, что нет окончательной уверенности.
Очередное описание популярной программы работы с данными.
Хорошее введение в популярный метод анализа данных.
Кратко описаны основные архивы хранения данных, полученных астрофизическими миссиями НАСА. Рассмотрены некоторые общие принципы современных научных архивов. Теперь это не просто "хранилище". Важно, чтобы все было удобно для пользователей, чтобы они могли получать необходимые консультации. А также, чтобы можно было работать с большими данными прямо на сайте архива, т.к. скачать их целиком просто не получится.
Еще раз описан полезнейший продукт - программа TOPCAT, позволяющая легко управляться с большими объемами данных. Очень хороший.
В статье рассмотрен интересный метод регистрации гравитационно-волнового сигнала, предложенный в 1990 г. Брагинским и др. Идея похожа на метод пульсарного тайминга при поиске гравволн. Но в данном случае регистрируются не особым образом коррелированные сбои времен прихода импульсов десятков пульсаров, и изменение положений большого количества звезд (рис. 1 в статье дает представление о сути). Суть именно в анализе изменений положений множества точечных источников. Прохождение гравволны через наблюдателя приводит к хорошо предсказуемой картине осцилляций положений источников. Современные методы могут позволить регистрировать волны с периодом в месяцы. Их дают сверхмассивные сливающиеся черные дыры. В качестве регистрирующего прибора подойдет Gaia. Собственно, авторы рассматривают методы анализа, которые могут позволить выделить такой сигнал. В некотором смысле астрометрический метод дополняет пульсарные методы поиска, т.к. на высоких частотах (период волны менее года) Gaia имеет чувствительность чуть выше, чем работающие системы пульсарного тайминга.
Краткое, но полезное и понятное описание архива Gaia. Пока там только первый релиз. Тем не менее, как известно, уже и с ним люди делают много интересной работы.
А я здесь завершаю 350-й юбилейный обзор.
Обзорам исполнилось 15 лет!
Обсудить в ЖЖ-сообществе
ru_astroph.
Обсудить на Астрофоруме в
Научной панораме.
Небольшой и довольно технический обзор, посвященный методам построения карт экзопланет. В статье не затрагивается такая экзотика, как гравитационное линзирование на Солнце. Речь идет о доступных в настоящее время методам, основанных на анализе излучения в зависимости от фазы, от стадии затмения и тп. Кое-что можно сделать и такими методами. В финальной части статьи авторы приводят существующие примеры.
В статье автор обсуждает работу с волонтерами, участвующими в обработке данных в проектах вроде Galaxy Zoo. Там, разумеется, есть много всяких подводных камней.
Очень интересная статья о том, как делаются красивые астрономические картинки, какие идеи при этом используются и тп. В частности, подробно описывается, как надо делать красивые (и информативные!) изображения в "ложных" цветах, визуализуя данные, полученные в невидимых диапазонах спектра, а также, как лучше делать композитные изображения, где накладываются данные из разных диапазонов.
Очень техническое введение в оптическую интерферометрию. Это введение к книге, а не введение в область.
Кроме основных статей по открытию гравитационных волн, появилось несколько сопутствующих работ. Две из них вышли в разделе gr-qc Архива.
В первой из них (arxiv:1602.03844), написанной совместно командами LIGO и VIRGO, рассказывается о шумах.
Дело в том, что сигнал еле виден (пять сигма) на фоне разнообразных шумов: детектора, сейсмики и т.д. В статье все это детально анализируется и даются аргументы, демонстрирующие, что сигнал не связан с шумами.
Вторая статья (arxiv:1602.03845) посвящена калибровке LIGO.
Время открывать планеты, и время закрывать планеты.
Авторы показывают, что нашумевшее несколько лет назад открытие легкой планеты вокруг одной из звезд альфа Центарва может быть связано с неправильным анализом данных.
Собственно, уже ранее высказывались сомнения в реальности обнаруженной планеты. Дело в том, что речь идет об обнаружении очень легкой планеты методом лучевых скоростей (т.е., это все на пределе, и даже за пределом современных технических возможностей). Плюс, там довольно сложная звезда (надо убрать эффекты, связанные с ее вращением и активностью). Но был сигнал, которому не было удоветворительного объяснения помимо планеты. Теперь оно есть.
Авторы показывают, что при открытии планеты был недостаточно аккуратно проведен анализ данных. В итоге, величина "окна" при поиске периодического сигнала сказалась на результате.
Так что, увы, пока планета у альфа Центавра В закрыта. В этой системе есть и другие планетные кандидаты, но там тоже пока нет ясности (об этом можно почитать в Википедии).
Обсудить в ЖЖ-сообществе
ru_astroph.
Обсудить на Астрофоруме в
Научной панораме.
Хотя мы не можем рассмотреть аккреционные диски - они слишком маленькие, - в некоторых затменных системах можно строить их карты. При этом обнаруживается много интересных структур: спиральные волны, эллиптическая форма диска и т.д. В обзоре дается достаточно полное описание того, как это делают. С картинками.
Довольно любопытная статья. Авторы опросили более 1000 астрономов, чтобы понять, каким софтом люди пользуются, на каких языках пишут и тп. Результаты довольно очевидны (Python, IDL, C/C++, Fortran....), но все равно интересно.
Авторы дают обзор всех основных способов открытия и изучения экзопланет (кроме тайминга): прямые изображения, транзиты, доплеровские данные, микролинзирование, астрометрия.
Обзор очень хорош. С одной стороны, авторы не залезают в детали и мелочи, с другой - все написано достаточно строго.
В статье рассказывается о новшествах в библиотеке астрономических компьютерных программ ASCL. Библиотеке уже 15 лет. В ней около 1000 доступных программ. Новый сайт дает возможность удобного поиска и работы с кодами. Кроме того, легко искать статьи как с описанием кода, так и статьи, которые его использовали.
Краткое руководство (с примерами), как можно использовать Виртуальную обсерваторию для кросс-корреляции данных по источникам высоких энергий. Например, показано, как можно сразу работать с данными Ферми и HESS.
Описано, как Topcat можно использовать для работы с очень большими массивами данных (миллионы точек).
Во всем мире люди занимаются полезным делом: оцифровкой старых пластинок. В данной статье представлен доступный теперь он-лайн архив пластинок обсерватории в Йене, полученных на шмидтовском телескопе в 1963-1982 гг. Каталог включает в себя примерно 1200 пластинок.
Представлен очередной релиз известного кода Cloudy, предназначенного для расчета излучения плазмы в неравновесном состоянии.
Работа подтверждает мнение о том, что основные данные по околоземным астероидам будет собираться не в рамках узкоспециализированных проектов, а в результате обработки данных больших научных многозадачных обзорных программ. В данном случае представлен софт, являющийся результатом большой работы, который позволит системе Pan-STARRS эффективно выделять такие объекты.
Кратко и довольно понятно описано применение байесовских методов в космологии. Обзор не может служить прямым руководством по применению метода (не хватит деталей), но все нужные ссылки есть.
LSST - Large Synoptic Survey Telescope. Это следующий большой наземный проект в области оптической астрономии. Как следует из названия, задачей инструмента будет не детальное изучение отдельных источников, а обзорые работы, востребоавнные в разных областях астрофизики. Одна из них - космология. А внутри космологии - изучение темной энергии. Именно об этом и статья.
В статье подробно представлены планы, задачи и методики, которыми будет пользоваться команда, надеющаяся получить новые данные о темной энергии, используя наблюдения на LSST. Заодно в статье есть неплохой обзор собственно по LSST и темной энергии.
В статье детально описывается работа телескопа VISTA для проведения инфракрасных обзоров неба, полученные результаты и, самое главное, научный архив, где доступен первый релиз данных. В некотором смысле данные VISTA дополняют обзор UKIDSS, проведенный на северном небе.
Сейчас доступны обзоры:
Это про "ведро холодной воды" (чтобы не кричать "эврика!"). Допустим, вы хотите, как быть как Тулли-Фишер или Фабер-Джексон, или даже как фундаментальная плоскость. Т.е., хотите открыть важное соотношение между измеряемыми величинами. Но измеряют-то их с ошибками. И тут вы такого можете понаоткрывать! Значит, надо тщательнЕЕ. Вот про это и обзор.
В статье обсуждается, как работать с реальными данными, которые могут быть сильно неоднородны, где могут быть наведенные корреляции и т.д.
Очень популярно и доступно рассказано о том, как работают современные гравитационно-волновые детекторы, как происходит выделение астрофизического сигнала, откуда берутся шумы и т.д.
Описан новый инструмент в проекте ADS. Он предназначен, как пишут авторы, в основном для образовательных целей. Но, разумеется, спектр применений весьма широк. Если немного поосваивать этот инструмент, то он вполне удобен. Статья в этом помогает. С другой стороны, я часто недоволен результатами поиска, и пользуясь обычным вариантом поиска, нахожу нужное быстрее.
Представлены результаты очередного обзора по поиску пульсаров. Обнаружено 75 новых источников. Особенно удивительных среди них нет, но это и не важно. Изюминка в методике выделения новых кандидатов.
Если когда-нибудь будут обнаружены гравволны от слияния двойных, то это будет совсем не похоже на "астрономы увидели". Это будет результатом фантастически сложной обработки данных. В статье описан один из вариантов поиска таких сигналов.
Большие научные проекты - это LIGO, LHC, SKA. Они дают (или будут давать) более петабайта данных в год. С этим надо что-то делать. Собственно, в документе и обсуждается что, как, зачем и почему.
Текст является официальным документом. Поэтому некоторые разделы читать довольно тоскливо. Тем не менее, некоторые очень интересны.
Речь идет о работе с очень большими потоками данных. Основным примером является проект LIGO, где ожидается 1 Петабайт в год. Описывается Страсбургский центр данных, концепция открытых данных в астрономии и тп. В общем, все это очень актуально и интересно.
Уже давно для работы с моделями многие используют не данные космологических наблюдений, а данные моделирования, находящиеся в открытом доступе. Но впервые, насколько я знаю, создан мощный общедоступный инструмент для работы с одним из самых крупных прогонов космологической эволюции - Millennuim Run. Он доступен в Интернете. Это своеобразная виртуальная обсерватория, моделирующая наблюдения с помощью реальных приборов в реальных условиях на основе данных, полученных в моделировании. Картинки в статье потрясающие - советую посмотреть. Что-нибудь типа моделирования глубокого поля Хаббла.
Подробное описание того, как работает главный инструмент спутника Ферми. Необходимо всем тем, кто работает с ним.
Краткое описание того, как работать с он-лайновым архивом данных наблюдений радиопульсаров.
Полезный текст по статистическим методам в астрономии. Самого этого обзора будет недостаточно, чтобы разобраться: где-то он будет слишком вводным, где-то слишком сложным при краткости и недостатке деталей. Зато охвачено все и даны ссылки (на монографии и програмные продукты). Так что пользы много, на мой взгляд.
Авторы описывают систему для размещения в сети кодов астрофизических программ с описанием: Astrophysics Source Code Library (ASCL).
Большой понятный обзор по интерферометрическим наблюдениям в радио и оптике. Авторы не загружают читателя формулами, поэтому некоторые детали могут остаться до конца непонятными (но на этот случай приводятся ссылки на более подробные изложения). Зато авторы рассматривают все в прилжении к конкретным установкам, что облегчает практическую деятельность.
Авторы очень кратко обсуждают основные проблемы, стоящие перед создателями единых хранилищ астрономических данных, увязанных с публикациями.
Если у вас есть теория. имеющая касательство до физики высоких энергий, то вам надо сравнить ее предсказания с данными экспериментов. В статье описан один из возможных подходов к решению этой задачи.
Результаты больших космологических расчетов востребованы самыми разными группами. Причем важно иметь возможность не просто видеть публикации, а прямо работать с "искусственной вселенной". Это довольно нетривиально, учитывая огромные объемы данных. Поэтому разрабатывают специальные системы доступа и визуализации для работы с такими данными. Статья является описанием такой системы.
Даны многочисленные примеры работы с базой, написанной на SQL. А также, разумеется, частично представлены результаты расчетов, доступных в базе.
Современные космологические расчеты содержат колоссальное количество "частиц". Это ставит специфические проблемы в смысле визализации. Авторы разработали программу, которая позволяет с помощью браузера эффективно работать с результатами таких расчетов. Разработанный софт находится в открытом доступе. В статье приводятся все необходимые ссылки.
Очень интересная заметка про использовании стерео изображений в астрономии. Кроме собственно описания методики и перспектив, очень интересно почитать про историю метода, про уже разработанные приложения и т.д.
Подробно описан проект Galaxy Zoo и выросший из него Zooiniverse. Описаны подходы и научные результаты (вплоть до списка статей, написанных в рамках проекта).
Очень технические лекции по обработке данных по астросейсмологии. Но существенно, что описанный анализ временных рядов и некоторые другие методы достаточно универсальны, а потому лекции могут полезны и тем, кто далек от астросейсмологии.
Авторы рассматривают развитие методов визуализации данных в астрономии, обсуждают наиболее популярные современные пакеты, приводя их преимущества и недостатки, а также показывают, что ждет нас в ближайшем будущем, когда объем данных еще возрастет.
Впервые с помощью распределенных вычислений в рамках Einstein@Home удалось обнаружить миллисекундный двойной радиопульсар.
В поисках пульсаров большую роль играет обработка данных, т.е., конкретнее, мощность используемых для поиска сигнала компьютеров. Это особенно актуально в случае двойных пульсаров. Примерно два года работы по поиску двойных пульсаров идут в рамках проекта Einstein@Home. И вот, наконец, успех.
Пульсар, видимо, имеет спутником массивный белый карлик. Период пульсара составляет примерно 20 миллисекунд. Орбитальный период около 9 часов.
Облачные вычисления - мощный подход в проведению ресурсоемких вычислений. Он получает все большую популярность. А что в астрофизике, где есть и огромное количество данных, и очень сложное численное моделирование? Авторы показывают на примере работы с данными спутника Кеплер, что облачные вычисления более эффективны, чем дорогие суперкомпьютеры.
Авторы описывают присадку к Google Earth, позволяющую лучше визуализовать данные SDSS. На мой взгляд, должно понравиться любителям астрономии, а также может быть полезно учителям и в кружках.
Основная ссылка на проект sites.google.com/site/geclusters .
Очень полезный текст. Полезный, в первую очередь, для студентов. Подробно, на примерах, разбирается, как в астрономии оценивают ошибки. Речь идет не только о наблюдениях, не только о пересчете наблюдаемых величин в то, что требуется, но и о модельных величинах. В общем, - полезно!
Обсудить в ЖЖ-сообществе
ru_astroph.
Обсудить на Астрофоруме в
Научной панораме.
На мой взгляд, очень интересный взгляд на будущее астрономии через 20 лет. В основном автор упирает на огромные массивы данных и прогрессивные методы работы с ними. Но оттуда перекидываются интересные мостки к взаимоотношениям с широкой публикой, изменениям в политике публикаций и тп. Конечно, не со всем можно согласиться, но материал весьма интересный.
Измерения времен прихода импульсов радиопульсаров обладают колоссальной точностью. Чтобы точно вести тайминг, нужно учитывать множество разных мелочей. Например, из-за распространения сигнала в гравитационном поле тел солнечной системы, происходит изменение времени прихода импульсов. Значит, высокоточные данные по нескольким пульсарам за большой (годы, десятки лет) период времени позволят "взвесить" тела солнечной системы.
Авторы используют данные многолетнего тайминга для определения масс планет: от Меркурия до Сатурна. Конечно, массы и там известны, благодаря работе космических аппаратов. Однако оказывается, что пульсарная точность все равно достаточно высока, и для некоторых планет в некоторых случаях данные по таймингу могут быть важны. Например, это может быть важно для понимания природы т.н. пролетных аномалий.
GALPROP-мощная давно развиваемая, постоянно совершенствуемая программа для расчета распространения космических лучей в Галактике. Теперь появился мощный удобный он-лайновый инструмент для расчетов с помощью этой программы. В статье кратко описан интерфейс и сам код.
Сотни тысяч добровольцев в почти 200 странах гоняют на своих компьютерах софт Einstein@Home. И вот - хоть что-то.
В ходе распределенных вычислений теперь анализируются и данные по радиопульсарам. В данных с Аресибо удалось обнаружить интересный миллисекундный пульсар PSR J2007+2722. Ожидается, что будут и еще открытия. Я думаю, что надо бы туда добавить данные с Ферми (на недавней конференции коллеги сетовали, что теперь для обработки данных с Ферми - слепой поиск новых гамма-пульсаров - не хватает вычислительных мощностей).
В четвертый раз прошло довольно интересное состязание. Участникам предлагается Сгенеренное определенным образом "наблюдение" на интерферометре. Задача: пользуясь своим софтом восстановить изображение. Результаты сравниваются с исходным. У кого меньше отклонений - тот победил.
В этот раз изображением была двойная система, в которой одна из звезд хорошо разрешается на диск с деталями. Участвовало четыре команды. Две справились плохо, две - хорошо, но одна все-таки чуть лучше.
В астрономии получают много данных. Было бы очень удобно свести их в один формат. Это цель проекта Виртуальная обсерватория (VAO). Но, чтобы цель была достигнута, нужно участие всего сообщества. В статье приведены рекомендации совета VAO по этому поводу.
Авторы описывают метод, позволяющий, на их взгляд, наиболее эффективно
работать с разными наборами данных, измеряющих одну величину (например,
измерения массы частицы разными группами на разных детекторах).
Прекрасный понятный содержательный обзор, посвященный тому, как данный по транзитам (прохождениям по диску) помогают получать разнообразную информацию по экзопланетам.
LSST - Large Synoptic Survey Telescope. Строительство этого 8-метрового телескопа с большим полем зрения начнется в Чили в следующем году, а заработает он в 2015. Это будет фантистический инструмент. Объем данных об оптических транзиентах и переменности объектов возрастет неимоверно.
Большой обзор по работе с данными астросейсмологии, их интерпретации, стоящим задачам и методам их решения. Статья довольно сложная, местами очень техническая. Но, пропуская такие места, она будет многим интересна, поскольку речь идет о методике, которая и сейчас, и, особенно, в ближайшем будущем, будет давать основную информацию по звездной астрофизике.
На мой взгляд, очень полезные заметки (именно, заметки!) по обработке данных с рентгеновских спутников.
Авторы представляют систему астрометрической калибровки оптических изображений на основе имеющихся данных по звездным полям. Весь код доступен на сайте http://astrometry.net (Open-Source License). Система определяет масштаб изображения, ориентацию и тп. Система может быть полезна и для Виртуальной обсервтаории, и просто при работе с данными (например, старыми оцифрованными пластинками), для которых данные об ориентации и масштабе или утеряны, или ненадежны.
Подробное, очень техническое описание того, как воссоздается изображение, полученное с помощью оптических интерферометров. Авторы рассказывают и о методах, применяемых в радиоастрономии, тем более что пересечений тут много. Поскольку описание очень подробное и непростое, текст не будет интересен непрофессионалам.
Интересное рассуждение. Авторы обращают внимание на то, что в ближайшем будущем космологические данные будут сильнейшим образом лимитированы конечностью выборки. Поэтому будет непросто работать с новыми моделями, теоретики будут шарахаться туда-сюда по мере появления новых данных, которые во многом могут быть доминированы малой статистикой (вселенную мы имеем в количестве одна штука). Соответственно, делают вывод авторы, наблюдатели должны очень вдумчиво подходить к релизам данных. Приводится интересный пример. Пусть монету бросили 2N раз, а потом потеряли. Мы хотим исследовать свойства монеты. Пусть в первых N бросках было поровно орлов и решек, а во вторых N -- одни орлы. В таком случае было бы абсолютно неверно после N бросков сделать релиз, поскольку люди работали бы над моделями, которые неадекватны, поскольку мы имеем дело с флуктуацией.
Очень технические (т.е., очень по делу для тех, кому в самом деле надо) лекции по различным статистическим методам, применяемым в космологии при обработке данных.
См. также arxiv:0906.0974 и arxiv:0906.0993 с описание софта для использования в обработке космологических данных.
Небольшой популярный обзор о некоторых приложениях статистики в астрономии. Начинается все с древних греков, а заканчивается экзопланетами, реликтовым излучение и большими обзорами неба.
Игорь вкратце описывает состояние дел с Виртуальной обсерваторией, и несколько более детально, насколько позволяет объем, рассказывает о двух проектах по исследованию галактик, которые используют Виртуальную обсерваторию. Т.е., если знать как, то многое с ее помощью уже можно успешно делать, чем Игорь и его коллеги и занимаются.
Автор описывает интересные скрипты, написанные им и использующие Google Earth, Google sky и тп. Например, можно рисовать траектории спутников, используя Google Earth. Можно, используя разные базы данных по астрономическим объектам, добавлять их на небо Google Sky. Можно брать изображения из Skyview и помещать их на Google Sky. Можно работать с данными в разых диапазонах и тп. Для скриптов автор использует Perl и PHP.
Недавно было объявлено о прямой регистрации трех планет в системе HR 8799. Сделано это было на снимках, сделанных в 2007 году. Разумеется, астрономы стали смотреть, нельзя ли обнаружить планеты на более ранних изображениях. И в самом деле, две из трех планет были обнаружены на фотографиях, сделанных в 2004 году. Авторы рассматриваемой статьи идут дальше в прошлое. Им удалось разглядеть самую внешнюю из трех планет на снимке 1998 года. Это не просто спортивный интерес. Важно, что удлинняется период, в течение которого наблюдается движение планеты. Т.е., повышается точность определения орбиты и тп. Для выделения планеты на снимке 1998 года понадобилась новая методика обработки изображений, что, разумеется, также является важным достижением.
Описана система CATS, являющаяся набором каталогов, объединенных в единую базу. В основном CATS основана на радиоданных (в первую очередь с РАТАНа-600). Всего там сейчас объединено около 400 каталогов, и содержится около миллиарда записей. Система работает в режиме свободного доступа с 1997 года и пользуется заслуженной популярностью у астрофизиков.
Пульсарные обзоры дают великое множество кандидатов. Далее с помощью неких алгоритмов эти кандидаты сортируются по значимости. Ученые просматривают "верхушку айсберга" и отбирают объекты для повторных наблюдений. Разумеется, чем эффективнее сортировка - тем больше реальных пульсаров можно просеять.
В статье описывается применение нового алгоритма сортировки пульсарных кандидатов. Он гораздо эффектинее предшественников. С его помощью удалось выбрать 44 кандидата, из которых 28 оказались реальными пульсарами. Причем, среди кандидатов "первой категории", отобранных алгоритмом, доля реальных оказалась около 95 процентов.
Среди 28 новых пульсаров есть два примечательных. Это двойной пульсар с эксцентричной орбитой и молодой пульсар в остатке сверхновой.
О новой технологии фильтрации искусственных сигналов, мешающих выделению пульсаров, можно прочесть в статье arxiv:0901.3993.
Сейчас есть много хороших обзоров неба с фотометрическими данными в широких полосах. Из этих данных можно было бы попробовать оценить параметеры звезд (эффективные температуры, металличность, силу тяжести), но не все так просто - есть межзвездное вещество, которое приводит к покраснению. Авторы предлагают метод, который, по их утверждению, хорошо справляется с этой непростой и актуальной задачей.
См. также arxiv:0808.1848 об абсолютной калибровке звезд главной последовательности тонкого диска по наблюдениям в оптике и ближнем ИК.
В статье подробно описаны результаты проекта, в рамках которого множество независимых (в основном не профессиональных) пользователей визуально инспектировало SDSS на предмет классификации галактик по их морфологии. Всего в проекте приняло участие около 100 000 пользователей, сделавших около 40 млн. оценок.
Разумеется, проводились тесты, когда небольшие выборки галактик просматривались профессионалами, а потом результаты сравнивались с оценками непрофессионеальных пользователей. Согласие было хорошим.
Описывается методика автоматического классифицирования транзиентных объектов при проведении массовых широкопольных обзоров неба.
ZEBRA - Zurich Extragalactic Bayesian Redshift Analyzer. Это открытая программа, позволяющая проводить массовые определения красных смещений внегалактических объектов по фотометрическим данным. Статья является руководством к этой программе.
В самам деле, никакого бла-бла-бла. Практическое руководство. Даже задачи есть. Наверное, будет полезно не только тем, кто начинает изучать обработку космологических данных, а вообще всем, кто начинает использовать статметоды для работы с данными.
Астрометрический спутник GAIA будет передавать очень большой поток данных. Речь идет примерно о 100 Терабайтах за пять лет работы. В статье описываются основные сложности при работе с этими данными и пути решения проблем.
На картах микроволнового фона (реликтового излучения), построенных командой WMAP, есть загадочное холодное пятно на галактической широте -57 и долготе 209 градусов. Авторы статьи проводят подробный анализ. Хитрость тут в том, что карты микроволнового фона строятся совсем не так, как обычные карты. Т.е. это не нанесение на карту неба "точек" с измеренной температурой. Построение карты завязано здесь на сложные методы обработки. В итоге может получиться так, что некоторые "детали" на карте возникают именно в следствии применения конкретного алгоритма построения, а вовсе не из-за существования каких-то выделенных областей на небе. Похоже, что именно так и появилось холодное пятно. Авторы детально разбирают, какие гармоники могли внести вклад в появление этого "миража".
WFCAM - это широкопольная инфракрасная камера телескопа UKIRT. В статье описан архив данных с этого прибора.
Методы определения красного смещения галактик на основе фотометрических наблюдений играют важную в современной космологии и внегалактической астрономии. Спектроскопические красные смещения найдены для миллиона галактик, в то время как цифровые обзоры неба в нескольких фильтрах уже содержат информацию о сотнях миллионов галактик. Прогноз на следующее десятилетие - несколько миллиардов. Подобная ситуация стимулирует развитие методов, позволяющих находить красные смещения галактик на основе фотометрии во многих фильтрах. Данная работа посвящена обсуждению ошибок этих методов и их сравнению с обычными спектроскопическими.
Работа с большими современными обзорами, типа Слоановского, требует совершенно новых численных методов. Им и посвящена данная статья. Идея состоит в разработке алгоритмов, позволяющих компьютеру "обучаться" классифицировать объекты.
Представлены результаты наблюдений, проведенных на индийском инфракрасном 1.2 м телескопе GIRT (Gurushikhar Infrared Telescope). Авторами приведена библиотека инфракрасных спектров для 126 звезд спектральных типов O5-M8 и классов светимости I-V. Все спектры были получены в полосе J с разрешением 12.5 A. Данная публикация является третьей в серии работ на эту тему. Ранее опубликованы спектры 135 звезд в полосе H с разрешением 16 A (Ranade et al, 2004) и спектры 114 звезд в полосе K с разрешением 22 A (Ranade et al., 2007). Полностью библиотека спектров звезд в инфракрасных полосах J, H & K суммирована в в виде ASCII таблиц и доступна на авторском веб-сайте по адресу http://vo.iucaa.ernet.in/~voi/NIR_Header.html
В статье описывается, как можно, используя новую версию Acrobat Portable Document Format и библиотеку S2PLOT, включить в текст статьи (размеется, в электронную версию) трехмерную графику в интерактивном режиме (т.е. картинки можно вращать и тп.). Кроме прочтения статьи рекомендуется также заглянуть на сайт.
Сравниваются два подхода при организации доступа к данным о звездных популяциях в Виртуальной обсерватории. К сожалению, заметка очень короткая, поэтому, по сути, приходится довольствоваться лишь выводами автора. Все детали остаются за бортом.
Сейчас в астрономии зайцев много, а ... исследователей мало. Т.е., ситуация такова, что есть огромное количество хороших данных, лежащих в открытом доступе, с которыми можно работать. Например, можно искать новые скопления. Для этого нужно создать хороший софт - и вперед!
Авторы используют свой метод поиска рассеянных скоплений. Как видно, метод весьма эффективен. В качестве иллюстрации авторы провели поиск скоплений в направлении галактического антицентра по данным обзора 2MASS. Найдено 15 новых скоплений.
Приведены данные обработки очередного (четвертого) отрезка научной работы гравитационно-волновой антенны LIGO. Это был достаточно короткий прогон - около месяца - в начале 2005 года. Но важно понимать, что обработка данных занимает очень большое время!
Авторы обсуждают поиски периодического сигнала. Ничего не найдено, но пределы (особенно для некоторых участков небесной сферы) становятся уже интересными.
Автор описывает (и рекламирует) софт для визуализации гидродинамических расчетов методом сглаженных частиц. Программа доступна для скачивания.
Представлены данные второй эпохи обзора галактической плоскости, проводимого на частоте 843 МГц в обсерватории Молонгло. Покрыта область неба с галактической широтой до 10 градусов, и долготой от 245 до 365 градусов. В данной статье описаны результаты, полученные по компактным источникам. Вошло 48 850 объектов.
Описывается один из инструментов, предоставляемый Немецкой Виртуальной обсерваторией (GAVO). Речь идет о программном обеспечении для моделирования спектров звезд и туманностей. Это нужно для быстрого сравнения данных наблюдений с теоретическими моделями.
На самом деле состояние не совсем "текущее" - статья 2005 года, но все равно рекомендуется к прочтению.
Речь идет о полезнейшей базе данных CATS.
Часто спрашивают: "А как определяют массы черных дыр в галактиках?" А вот так! Читайте об одном из методов.
Идея состоит в том, что по изменениям потока излучения от активного ядра можно судить о поведении газа вокруг черной дыры. Нужно только достаточно часто и регулярно проводить фотометрические наблюдения и получать спектры (важно ведь также и то, как меняется интесивность спектральных линий и тп.). Ну а поведение газа содержит в себе информацию о массе дыры.
Конечно, метод более чем не прямой. Тем не менее, вполне полезный.
На сайте http://www.swift.ac.uk/xrt_curves/00020052/index.php в он-лайновом режиме выкладываются кривые блеска гамма-всплесков, зарегистрированных на спутнике Swift. Очень удобный сервис.
В статье описаны некоторые существенные технические детали, позволяющие добиться работы такого ресурса.
Собственно, статья представляет собой дайджест того, что рассказывалось на специальной сессии Генеральной Ассамблеи МАС, посвященной работе с астрономическими данными.
Мы живем во время, когда поток данных чрезвычайно возрос. С другой стороны, возросли и возможности работы с данными. Соответственно, важно приложить ум и руки для того, чтобы использовать всю эту информацию с максимальной пользой.
В статье, разумеется, речь идет по немногу обо всем. Здесь и Виртуальная обсерватория, и архивы наблюдательных данных, и журналы ... В общем - полезно и достаточно интересно.
Как ясно из названия, автор дает обзор конференции по применению статистических методов в астрономии. Тема эта очень важна, ибо статистика не стоит на месте, а в астрономии, где мы имеем только наблюдения, подверженные различной селекции, применение изощренных статистических методов более востребовано, чем в ряде других наук.
Область применения статистических методов (я имею ввиду кое-что посложнее хи-квадрат или теста Колмогорова-Смирнова) в астрономии очень широка: от поиска экзопланет до космологии. В статье автор останавливается на двух примерах (как раз связанных с экзопланетами и космологией). Кроме того, в конце статьи автор приводит интересное рассуждение о глобализации в астрономии.
Речь, конечно, идет не о глазах Эдвина Хаббла, а о Космическом телескопе его имени. Проблема состоит в том, что визуализовать на компьютере удаленную базу данным, содержащую хаббловские данные, совсем непросто. Авторы описывают методику, которая позволила бы даже без очень быстрой связи просматривать на экране части большого изображения, размером порядка миллиарда пикселов.
Страница проекта находится здесь.
Перевод названия получился корявый, но суть передает. Авторы описывают софт (для параллельных вычислений), который создает анимацию по результатам численного моделирования. Наверное, это может быть многим полезно.
Современные инструменты позволяют получать колоссальные объемы данных. Зачастую проблема упирается в то, что с ними делать.
В небольшом обзоре обсуждаются нерешенные проблемы, возникающие при работе с большими объемами астрономических данных. В первую очередь рассматривается пример будущего спутника GAIA.
Основное внимание уделено европейской части Виртуальной обсерватории и применениям Обсерватории в астрофизике высоких энергий. Примеры, на мой взгляд, не слишком яркие, но убедительные, тем более что речь идет о прототипе ВО.
Две важные работы, посвященные переобработке данных астрометрического спутника Hipparcos.
Разные авторы в разное время высказывали критические замечания по поводу результатов Hipparcos. В этих работах авторы проводят детальный анализ данных, полученных на этом спутнике. В частности, как они пишут, удалось методами обработки исправить некоторые дефекты, связанные с неидеальностью работы спутника.
Нейронные сети можно "научить" выделять определенные типы сигналов. Это используется для выделения различных типов переменных звезд и событий микролинзирования в обзорах. В данном случае речь идет о тестировании системы по поиску классических новых. Использованы данные коллаборации POINT-AGAPE, которая проводит поиск событий микролинзирования в М31.
Показано, что система смогла четко выделить 9 из 13 известных новых (или даже 11, если провести дополнительный анализ). Кроме тестов получены и оригинальные результаты. Выделено 19 новых кандидатов в классические новые, причем о 4 из них авторы говорят как об очень хороших кандидатах.
Постоянно растущий поток астрономических данных требует новых подходов к их обработке. Уже довольно давно был предложен проект т.н. "Виртуальной обсерватории". В обзоре рассказывается об истории проекта и сегодняшнем состоянии дел с его реализацией.
Коротко обсуждаются основные проблемы, связанные с обилием данных наблюдений в астрономии. Хочется все это иметь в упорядоченном легко доступном свободном доступе. Но сделать такую систему довольно непросто. Будем надеяться, что создание Виртуальной обсерватории по большей части решит все эти проблемы.
Фактически все, что нужно знать для анализа анизотропии реликтового излучения, собрано в этом обзоре.
Продолжается создание/разработка проекта Виртуальной обсерватории. Суть проекта в том, чтобы множество данных наблюдений (имеются ввиду архивы) были бы доступны астрономам через сеть в едином формате. Разумеется, результаты с новых миссий и телескопов будут потом попадать в базу Виртуальной обсерватории. Уже получены первые результаты.
Автор представляет оригинальные результаты, полученные с помощью прототипа Виртуальной обсерватории. Из данных GOODS удалось выделить 68 ранее неизвестных активных ядер второго типа (это активные ядра с сильным поглощением излучения, возможно за счет тора, вращающегося вокруг центральной сверхмассивной черной дыры).
Также см. еще одну статью, посвященную Виртуальной обсерватории.
Новые массовые обзоры астрофизических объектов (в первую очередь галактик и звезд) поставили проблему автоматической их классификации, поскольку делать это в ручную теперь физически невозможно. Многие алгоритмы классификация проходят период "обучения", когда на вход алгоритма подаются специальные, классифицированные вручную выборки объектов. Однако практика подобной классификации показала, что сделанные вручную выборки не слишком хороши: в группах объектов, отнесенных в этих выборках к одному классу, алгоритм находит важные для классификации различия. Самое интересное, могут оказаться полностью пропущенными целые новые классы объектов! В данной работе авторы приводят такой "новый класс" галактик обнаруженный системой автоматической классификации.
В публичный доступ выставлен второй релиз Слоановского Цифрового Обзора Неба (SDSS=Sloan Digital Sky Survey). Теперь он покрывает 3324 кв.градуса неба, содержит изображения и 5-цветную фотометрию более чем 88 миллионов объектов, кроме того в нем содержатся спектры 367360 галактик и квазаров. Глубина обзора в фильтре r (r малое) достигает 22 звездной величины. Астрометрическая точность каталога ~0.1". Про этот каталог можно рассказать еще много интересного, но лучше прочесть статью или посмотреть сайт проекта skyserver.sdss.org.
Мы уже писали о многих докладах с этой конференции. Суть почти всех из них сводилась к тому, что в самых разных областях науки ученые не используют наиболее современные, продвинутые, перспективные методы статистической обработки данных. И это правда! В данной работе речь идет о том, что упускают астрономы, пренебрегая современными достижениями матстатистики.
Кроме того, описываются стоящие перед астрономами задачи, которые должны простимулировать статистиков разрабатывать соответствующие методы.
Разделение астрономических изображений на сумму отдельных изображений определенных типов ежедневное занятие многих астрономов. В работе предложен общий метод достаточно аккуратного выполнения подобного разложения, даже когда набор базисных изображений линейно зависим, не ортогонален и не полон. Статья может быть интересна не только астрономам.
Проект Skysoft - интернет коллекция астрономического программного обеспечения различного уровня от простого профессионального и полу профессионального до любительского (но последнего мало). Авторы надеются, что от других коллекций астрономического софта, существующих сегодня в сети, эта будет отличаться профессиональной поддержкой и ориентацией не только на пользователей, но и на разработчиков. В настоящее время по адресу http://www.skysoft.org доступны 197 программ.
Некоторе время назад была предложена концепция интерактивных астрономических баз данных AstroCat. Каталог катаклизмических переменных CVcat - первая база данных построенная по этому принципу.
Предлагается новый открытый стандарт хранения общедоступных изображений звездного неба. Каждое изображение рассматривается как проекция участка сферы на плоскость, из таких перекрывающихся участков (фасетов) строятся полные атласы и крупномасштабные изображения. Стандарт ориентирован на массовое хранение изображений и на использование его в виртуальных обсерваториях.
(См., также, astro-ph/0312196 тех же авторов, где описывается проект программы Atlasmaker.)
Сегодня на ранней стадии разработки находятся проекты больших наблюдательных комплексов (телескоп + приемник + компьютер + software) для обнаружения экзопланет по вариациям блеска их светил из-за прохождений по диску. Одной из проблем подобных установок является огромный поток данных: для того чтобы часто обнаруживать планеты надо одновременно следить за большим числом звезд с высоким временным разрешением (чтобы не пропустить момент изменения блеска) и с высокой точностью (0.01 звездной величины и лучше) Сохранить этот поток информации невозможно, поэтому его обрабатывают в реальном времени с использованием простой триггерной схемы с двумя уровнями. Для обработки данных с больших ПЗС (16000х16000 элементов), которые планируется ставить на подобный телескоп, будет достаточно сети не более чем из 256 стандартных рабочих станций!
(По-видимому, данная статья написана на основе доклада-презентации: очень сжатый текст без деталей и большое число красочных картинок.)
Спутник ИНТЕГРАЛ очень важен для европейской астрономии. Кроме того, он очень важен для России. Первым результатам этой космической обсерватории будет посвящен специальный номер Astronomy & Astrophysics. В этой статье рассказывается о едином центре данных спутника. Обсерватория является многофункциональной, исповедующей политику открытых данных (спустя некоторое время после наблюдений все материалы становятся доступными мировому сообществу). Все это требует быстрого и качественного предоставления данных всем желающим. Именно этой работой занимается центр данных.
Астрономических объектов много, а потому много данных.
Работать с ними (поверьте!) очень тяжело.
К счастью, разнообразные современные технологии здесь
очень помогают.
В статье речь идет как раз об этом.
Кроме астрономов статья может быть очень интересна всем тем,
кто занимается работой с большими массивами данных.
Содержание статьи очень точно соответствует ее названию. А в качестве примера рассмотрена система автоматической классификации гамма-всплесков.
Нейронные сети находят множество различных применений, в том числе и в обработке астрономических данных (мы несколько раз писали об этом). Эта работа является довольно популярным обзором по нейроинформатике, где описываются основные принципы, а также решенные и нерешенные проблемы.
См. также статью
"Automatic Classification using
Self-Organising Neural Networks in
Astrophysical Experiments", где рассматривается применение нейронных
сетей в астрономии.