Наглядный пример проблемы полноты информации источника

Аватар пользователя И-23

Как я уже неоднократно говорил, необходимой предпосылкой научного, то есть хотя бы претендующего на воспроизводимость, прогнозирования является контроль достоверности и полноты исходных данных.

Но при таком подходе интересное начинается уже на первом шаге:

Ибо наблюдение, подобно всякой другой коммуникации (интересующимся вопросом могу рекомендовать статью «О механизме понимания и проблеме нехочупонимайства»), требует от наблюдателя и определённого труда, и, что важнее, необходимых предпосылок или навыков.

В ситуации, когда критерием истинности объявляется Практика я люблю вспоминать наблюдаемое отношение разработчиков к документированию и разработке тестов, что особенно наглядно проявляется в разработке ПО.

Лично я предпочитаю оперировать трёхуровневой моделью:
1. Сделать, чтоб работало (выполняло необходимую функцию);
2. П.1 + умение объяснить как и почему оно работает?;
3. П.2. + умение обосновать оптимальность или необходимость выбранных технических решений.

На практике обычно можно наблюдать п.1, в редких случаях — п.2.

Но нападатели любят требовать всегда и везде исключительно п.3. И они же деятельно пресекают попытки ресурсного обеспечения выхода на этот уровень.

Такая вот диалектика.

Ситуация усугубляется тем, что полная и корректная независимая поверка исторических свидетельств физически невозможна. А с современными тот же результат наблюдается при достижении некоторой пороговой величины сложности (что, помимо прочего, наглядно иллюстрирует актуальность научных разработок товарища Богданова).

Поэтому значительную часть материала приходится верифицировать исключительно в пространстве второй сигнальной. То есть — по разнообразным документам и прочим источникам.

И тут возникает сильнейший соблазн экономии посредством использования некоторого *полного* первоисточника. Проблема в том, что даже если не принимать во внимание научный метод, отражающий фундаментальное свойство практически всех источников, данный объект всё равно классифицируется как ненаучная фантастика.

Потому что мастера источниковедения не в курсе ни замечания господина Брукса:

Если организационная структура может представлять угрозу, не будет документироваться ничего, кроме того, что нельзя оспорить.

Ни, тем более, наблюдений господина Фокса:

Запись обычно приводит к смягчению оценок до такой степени, что существо дела теряется.

Примеры проблемы можно посмотреть в памфлете господина Смолина. В естественных науках можно наблюдать на примере уверенных утверждений популярного в определённых кругах проф. Савельева, счастливого не-знанием прямого противоречия наблюдениям господина Фокса на качественно более простых системах.

Некоторые особо продвинутые граждане любят посылать в гугель, как вроде бы надёжный источник информации. Эдакий наивный приём относительно честной полемики, попытка разводки на самостоятельный поиск оппонентом подтверждений критики, обычно приводящий к успешному преодолению первого барьера фильтрации.

Таким персонажам явно не известно того прискорбного факта, что в современном, регулируемом вектором платёжеспособного спроса на коммерческую пропаганду поисковые системы превратились в хранилище популярных заблуждений или, в лучшем случае — вопросов (вообще без никаких ответов).

Предыдущая попытка проведения аудита полноты и актуальности материала одного из авторитетных источников (см. приглашение) благополучно провалилась. Попробую проиллюстрировать ту же закономерность в развёрнутом виде на другом примере.

Давеча мне внезапно потребовалась одна статья, оригинал которой внезапно был недоступен. В кэше поисковых систем её также не оказалось. За два года, прошедшие с момента публикации никто в рунете не озаботился резервной копией (к вопросу о стоёкости и распространённости необходимых нюансов). Полагаю полезным сохранить пример здесь. Хотя правильности локального файла оно никоим образом не отменяет.

Но сначала за неимением русского перевода для гарантируемой читаемости процитирую оригинал одного из авторитетных источников:

Core dumps

Sometimes the crashes are difficult to reproduce, the program is vastly threaded, it's too slow to run in gdb or it's messed up when run through it (shouldn't surprise anybody that running inside the debugger there are more bugs than are reproducible without the debugger itself). In these cases, there is one tool that comes in useful: the core dump.

A core dump is a file that contains the whole memory area of a program when it crashed. Using that file, it's possible to extract the stack backtrace even if the program has crashed outside gdb, assuming core dumps are enabled. By default core dumps are not enabled on Gentoo Linux (they are, however, enabled by default on Gentoo/FreeBSD ), so you have to enable them.

The core dump files are generated directly by the kernel; for this reason, the kernel need to have the feature enabled at build time to work properly. While all the default configurations enable core dump files, if you're running an embedded kernel, or you have configured otherwise standard kernel features, you should verify the following options:

Note

You can skip this step if you haven't enabled the “Configure standard kernel features” option at all, which you shouldn't have if you don't know whether you did.

CODE Kernel options to enable core dumps

General Setup --->
   Configure standard kernel features --->
      Enable ELF core dumps

Core dumps can be enabled on the system level or the shell session level. In the first case, everything in the system that crashes and does not have already a crash handler (see later for more notes about KDE's crash handler) will dump. When enabled at shell session level, only the programs started from that session will leave behind a dump.

To enable core dumps on a system level, you have to edit either /etc/security/limits.conf (if you're using PAM, as is the default) or /etc/limits.conf . In the first case, you must define a limit (whether hard or, most commonly, soft; for core files, that might be anywhere from 0 to no limit). In the latter case, you just need to set the variable C to the size limit of a core file (here there's no "unlimited").

CODE Example of rule to get unlimited core files when using PAM

# /etc/security/limits.conf
*             soft      core       unlimited

CODE Example of rule to get core files up to 20MB when not using PAM

# /etc/limits.conf
*       C20480

To enable core files on a single shell session you can use the ulimit command with the -c option. 0 means disabled; any other positive number is the size in KB of the generated core file, while unlimited simply removes the limit on core file dimension. From that point on, all the programs that exit because of a signal like SIGABRT or SIGSEGV will leave behind a core file that might be called either "core" or "core. pid " (where pid is replaced with the actual pid of the program that died).

CODE Example of ulimit use

$ ulimit -c unlimited
$ crashing-program
[...]
Abort (Core Dumped)
$

Note

The ulimit command is an internal command in bash and zsh. On other shells it might be called in other ways or might even not be available at all.

After you get a core dump, you can run gdb on it, specifying both the path to the file that generated the core dump (it has to be the same exact binary, so if you recompile, the core dump is useless) and the path to the core file. Once you have gdb open on it, you can follow the same instructions given above as it had just received the signal killing it.

CODE Starting gdb on a core file

$ gdb -q $(which crashing-program) --core core

As an alternative, you can use gdb 's command-line capabilities to get the backtrace without entering the interactive mode. This also makes it easier to save the backtrace in a file or to send it to a pipe of any kind. The trick lies in the --batch and -ex options that are accepted by gdb . You can use the following bash function to get the full backtrace of a core dump (including all threads) on the standard output stream.

Красиво (особенно если смотреть оформление оригинала) и вроде бы по делу. Но вот достаточность для практического применения… Предлагаю оценить самостоятельно, сравнив с нижецитируемым приложением. Уже на Великом и Могучем. ☺


Приложение

[И-23]: С включением замечаний/дополнений из комментариев и некоторой редакторской правкой. Статья опубликована 13.03.2017, то есть описываются реалии 13-го профиля.
Из недоработок можно отметить пропуск указания версий пакетов, в которых устанавливалась цитируемая документация.

История одного умолчания

Это плазма падает, а юнити аккуратно ложится.

Аккуратно ложится, медленно снимает с себя core и призывно постанывает в сислог.

© LOR

Запись и анализ core

Объект (core dump) появляется, когда программа пытается сотворить несуразность с точки зрения ОС (ядра) и получает соответствующий событию сигнал.

man 5 core:

Для определённых сигналов действием по умолчанию является завершение процесса и создание дампа памяти процесса — дискового файла, содержащего образ памяти процесса на момент завершения. Этот образ может быть использован в отладчике (например, gdb(1)) для исследования состояния программы на момент её завершения. Список сигналов, которые приводят к созданию дампа памяти процесса, можно найти в signal(7).

man 7 signal:

SIGQUIT3CoreВыход с клавиатуры
SIGILL4CoreНесуществующая инструкция
SIGABRT6CoreСигнал аварии (abort), посланный abort(3)
SIGFPE8CoreОшибка операций с плавающей запятой
SIGSEGV11CoreНекорректная ссылка в память

Дальнейшие действия зависят от конфигурации ОС: в любом случае выводится (правда гуём обычно не отображается) информация о событии, + в зависимости от настройки подсистемы журналирования — сообщение в журнал. И, если включена запись дампов, слепок памяти процесса (на момент получения сигнала) записывается на жёсткий диск.

Слепок памяти, занимаемой программой, может содержать конфиденциальную информацию, его запись в файл — потенциальная уязвимость. Сейчас я описываю простейший случай (использование базового профиля), на hardened-профиле разрешение записи core должно потребовать дополнительного разрешения (и вообще, кроме как в тестовых целях на рабочей станции разработчика, временно (!), этого делать не стоит).

И-23: Случайно просочившийся в публикацию план философского отступления.

Лирическое отступление про СПО:

// Системный/прикладной уровни и работоспособность vs правильность решения.

Ввязываясь в квест с отладкой, полезно помнить о некоторых особенностях предметной области. Если в разработке Проприетарного ПО царит требование работоспособности (согласно некоторому набору тестов, с отягчающим обстоятельством ресурсоёмкости надлежащей проверки), то в экосистеме Свободного ПО, по крайней мере на системном уровне наблюдается примат правильности решения над принципиальной работоспособностью.

Откуда очевидным образом следует принципиальное различие в отношении к разделяемым библиотекам: тогда, когда на платформе самой распространённой ОС стандартом де-факто является статическая линковка, в GNU/Linux и прочих *BSD использование интегрированных зависимостей или статическая линковка интерпретируются как несуразность (редактор: заменить слово?).

Очевидным образом, различаются и ошибки, порождённые различием в подходах: если в СПО собираются свои ошибки и [в лучшем случае] недоработки в зависимостях, то в ППО можно налететь на следствие ошибки, давным-давно исправленной в upstream'е зависимости.

Правда на прикладном уровне часто царит «базар» (кратчайший путь — известный) с достаточно высокой интенсивностью процесса отбора.

// Отягчающее обстоятельство в случае кросс-платформенных приложений (культура использования разделяемых библиотек).

В силу вышеизложенного, сам по себе файл core, особенно отдельно от породившего его исполняемого файла, не интересен никому, кроме потенциального атакующего (злоумышленника). Хотя, строго говоря, в бинарных дистибутивах это и не совсем так.

Разработчику интересна расшифровка core.

Но простого разрешения записи core dump для получения информативной трассы недостаточно. Необходимо также включить в дамп (и как следствие — в порождающий его исполняемый файл, вместе с использовавшимися в проблемной ситуации библиотеками) отладочные символы.

Что делается на этапе сборки. В предположении использования GNU Compiller Collection — добавлением в список параметров компилятора, передаваемых переменной CFLAGS, опции -ggdb. Историческая альтернатива — опция -g.

man gcc:

Options for Debugging Your Program or GCC

GCC has various special options that are used for debugging either your program or GCC:

-g

Produce debugging information in the operating system's native format (stabs, COFF, XCOFF, or DWARF 2). GDB can work with this debugging information.

On most systems that use stabs format, -g enables use of extra debugging information that only GDB can use; this extra information makes debugging work better in GDB but probably makes other debuggers crash or refuse to read the program. If you want to control for certain whether to generate the extra information, use -gstabs+, -gstabs, -gxcoff+, -gxcoff, or -gvms (see below).

GCC allows you to use -g with -O. The shortcuts taken by optimized code may occasionally produce surprising results: some variables you declared may not exist at all; flow of control may briefly move where you did not expect it; some statements may not be executed because they compute constant results or their values are already at hand; some statements may execute in different places because they have been moved out of loops.

Nevertheless it proves possible to debug optimized output. This makes it reasonable to use the optimizer for programs that might have bugs.

The following options are useful when GCC is generated with the capability for more than one debugging format.

-ggdb

Produce debugging information for use by GDB. This means to use the most expressive format available (DWARF 2, stabs, or the native format if neither of those are supported), including GDB extensions if at all possible.

Для пакетов, предусматривающих дополнительные отладочные функции на уровне системы сборки также следует включить USE-флаг debug.

Добавление опции компилятора, строго говоря, меняет создаваемый файл, что, в некоторых случаях, может сказаться на воспроизводимости ошибки.

Но простого добавления опции включения отладочных символов недостаточно. При установке программы (формировании пакета) обычно производится зачистка лишних (и неиспользуемых) символов. Поэтому пакеты, используемые для отладки, требуют и специальной установки.

Например посредством включения для них:

FEATURES="splitdebug"

man make.conf:

FEATURES = "sandbox" Defines actions portage takes by default. This is an incremental variable. Most of these settings are for developer use, but some are available to non-developers as well. The sandbox feature is very important and should not be disabled by default.

splitdebug Prior to stripping ELF etdyn and etexec files, the debugging info is stored for later use by various debuggers. This feature is disabled by nostrip. You should also consider setting compressdebug so the files don't suck up a lot of space. For installation of source code, see installsources.

Очевидным образом, в нормальном режиме работы оба необходимых условия информативной отладки в лучшем случае не нужны.

Установить пакет в отладочном режиме можно несколькими различными способами (подсказка от megabaks).

Например задав необходимые параметры через переменные окружения. Зафиксировать которые можно посредством per-package bashrc file.

Т.е. в файл(ы), для рассматриваемого примера — /etc/portage/env/x11-misc/gxneur (и далее по списку) заносятся три строки (базовая часть переменной CFLAGS копируется из make.conf):

CFLAGS="-march=native -O2 -pipe -ggdb"

CXXFLAGS="${CFLAGS}"

FEATURES="splitdebug"

Альтернативым способом сборки отладочных версий пакетов является использование специальной реинкарнации make.conf.

Параметры записываются в файл /etc/portage/env/debug_make.conf

CFLAGS="-march=native -O2 -pipe -ggdb"

CXXFLAGS="${CFLAGS}"

FEATURES="buildsyspkg downgrade-backup metadata-transfer splitdebug"

После чего в файле /etc/portage/package.env прописывается перечень пакетов, при сборке которых используется этот файл:

x11-misc/gxneur debug_make.conf

sys-libs/glibc debug_make.conf

dev-libs/glib debug_make.conf

x11-libs/libX11 debug_make.conf

x11-libs/libxcb debug_make.conf

[И-23]: Итого в дополнение к стандартному исполняемому файлу:

# file /usr/bin/gxneur

/usr/bin/gxneur: ELF 64-bit LSB executable, x86-64, version 1 (SYSV), dynamically linked, interpreter /lib64/ld-linux-x86-64.so.2, for GNU/Linux 2.6.32, stripped

[И-23]: Устанавливается файл с отладочными символами (обратите внимание на путь /usr/lib/debug/). В списке файлов пакета отладочные файлы также не отображаются:

# file /usr/lib/debug/usr/bin/gxneur.debug

/usr/lib/debug/usr/bin/gxneur.debug: ELF 64-bit LSB executable, x86-64, version 1 (SYSV), dynamically linked, interpreter *empty*, for GNU/Linux 2.6.32, not stripped

Но это лирическое отступление с информацией о содержимом файлов.

Практика показывает, что по крайней мере в исследуемом примере включать отладку для собственно проблемного приложения не требуется.

Для анализа core необходима специальная утилита — отладчик. Практическим инвариантом для СПО является gdb (GNU debugger). Пример начального приближения сессии отладки:

$ gdb -q $(which gxneur) --core core_gxneur-6.13902

Reading symbols from /usr/bin/gxneur...(no debugging symbols found)...done.

[New LWP 13902]

[New LWP 13905]

[New LWP 13906]


warning: Could not load shared library symbols for linux-vdso.so.1.

Do you need "set solib-search-path" or "set sysroot"?

[Thread debugging using libthread_db enabled]

Using host libthread_db library "/lib64/libthread_db.so.1".

Core was generated by `gxneur'.

Program terminated with signal SIGABRT, Aborted.

#0 0x00007fb38afb9217 in raise () from /lib64/libc.so.6

[Current thread is 1 (Thread 0x7fb38f22a8c0 (LWP 13902))]

В данном конкретном случае программа пишет два разных дампа по разным сигналам. Второй:

$ gdb -q $(which gxneur) --core /tmp/cores/core_gxneur-11.13988

Reading symbols from /usr/bin/gxneur...(no debugging symbols found)...done.

[New LWP 13988]


warning: Could not load shared library symbols for linux-vdso.so.1.

Do you need "set solib-search-path" or "set sysroot"?

[Thread debugging using libthread_db enabled]

Using host libthread_db library "/lib64/libthread_db.so.1".

Core was generated by `gxneur'.

Program terminated with signal SIGSEGV, Segmentation fault.

#0 0x00007ff793fd45e6 in ?? () from /lib64/libc.so.6

(помним, что достаточно часто для запуска программы используется обёртка shell-скрипта и потому финт с which не работает)

В первом приближении расшифровки интересен разве что список используемых библиотек, по которому можно определить список зависимых пакетов для режима отладки, например:

# equery b /lib64/libc.so.6

* Searching for /lib64/libc.so.6 ...

sys-libs/glibc-2.22-r4 (/lib64/libc.so.6 -> libc-2.22.so)

sys-libs/glibc-2.22-r4 (/lib64/libc-2.22.so)

По умолчанию запись core выключена в Linux и включена в FreeBSD (OpenBSD, NetBSD, OpenSolaris и проприетарные Unix'ы — ?, Windows — ???).

И-23: Предлагаю оценить прямые указания на остающиеся вопросы.

Linux (начиная с Linux 3.7 CONFIG_COREDUMP):

$ zgrep COREDUMP /proc/config.gz

CONFIG_COREDUMP=y

CONFIG_ALLOW_DEV_COREDUMP=y

Имя файла core можно посмотреть с помощью утилиты sysctl, явно прописать или переопределить в сеансе — ею же, зафиксировать изменения — в файле /etc/sysctl.conf).

man 5 core:

Именование файлов дампов памяти

По умолчанию файлу с дампом памяти присваивается имя core, но с помощью файла /proc/sys/kernel/core_pattern (начиная с Linux 2.6 и 2.4.21) можно задать шаблон, который будет использован для именования файлов дампов памяти. Шаблон может содержать описатели %, которые заменяются на следующие значения при создании файла дампа:

%% одиночный символ %

%c программный предел размера файла дампа рухнувшего процесса (начиная с Linux 2.6.24)

%d режим дампа — тоже, как значение возвращаемое prctl(2) с PR_GET_DUMPABLE (начиная с Linux 3.7)

%e имя исполняемого файла (без пути)

%E путь к исполняемому файлу, в котором символы косой черты ('/') заменена на восклицательные знаки ('!') (начиная с Linux 3.0).

%g (число) реальный GID процесса, с которого делается дамп

%h имя узла (как nodename, возвращаемое uname(2))

%i TID нити, из-за которой возник дамп, по отношению к пространству имён PID, в котором располагается нить (начиная с Linux 3.18)

%I TID нити, из-за которой возник дамп, по отношению к начальному пространству имён PID (начиная с Linux 3.18)

%p PID процесса, с которого делается дамп, так как он видится в пространстве имён PID, котором расположен процесс

%P initial PID процесса, с которого делается дамп, так как он видится в первоначальном пространстве имён PID, в котором расположен процесс (начиная с Linux 3.12)

%s номер сигнала, вызвавшего создание дампа

%t время дампа, выражается в секундах с начала эпохи, 1970-01-01 00:00:00 +0000 (UTC)

%u (число) реальный UID процесса, с которого делается дамп

# sysctl -a | grep kernel.core

kernel.core_pattern = /tmp/cores/core_%e-%s.%p

kernel.core_pipe_limit = 0

kernel.core_uses_pid = 0

$ grep kernel.core /etc/sysctl.conf

kernel.core_pattern = /tmp/cores/core_%e-%s.%p

По умолчанию имя файла дампа — core. Очевидное следствие — файл пишется в корень домашнего каталога пользователя, от имени которого работал процесс. Или не пишется, если нет прав записи, что достаточно часто встречается для пользователей демонов.

Очевидным решением проблемы является запись core в отдельный выделенный каталог (с учётом вышеприведённого замечания об информативности — можно даже во временный).

Необходимое условие — права на запись для всех.

В моём случае каталог временный (что следует из FHS), создаётся сервисом local при загрузке:

/etc/local.d/mk_core_dir.start:

#!/bin/sh

#

mkdir -m 0777 /tmp/cores

И-23: дополнение на основании комментария.

После почти полной победы Леннарта в большинстве дистрибутивов данный механизм был объявлен «устаревшим». Вместо него рекомендуется использование специально разработанного специализированного решения — sys-apps/opentmpfiles.

Пример полной (и полезной или, с учётом тенденций эволюции квалификации разработчиков, претендующей на полезность) расшифровки core выглядит следующим образом:

$ gdb -q $(which gxneur) --core /tmp/cores/core_gxneur-6.12629

Reading symbols from /usr/bin/gxneur...Reading symbols from /usr/lib64/debug//usr/bin/gxneur.debug...done.

done.

[New LWP 12629]

[New LWP 12634]

[New LWP 12635]


warning: Could not load shared library symbols for linux-vdso.so.1.

Do you need "set solib-search-path" or "set sysroot"?

[Thread debugging using libthread_db enabled]

Using host libthread_db library "/lib64/libthread_db.so.1".

Core was generated by `gxneur'.

Program terminated with signal SIGABRT, Aborted.

#0 0x00007f28a6b7b217 in __GI_raise (sig=sig@entry=6) at ../sysdeps/unix/sysv/linux/raise.c:55 55 ../sysdeps/unix/sysv/linux/raise.c: Нет такого файла или каталога.

[Current thread is 1 (Thread 0x7f28aadec8c0 (LWP 12629))]

Для второго сигнала (11) и случая отсутствия отладочных символов в проблемном исполняемом файле (показывающий, что они нужны не всегда):

$ gdb -q $(which gxneur) --core /tmp/cores/core_gxneur-11.25118

Reading symbols from /usr/bin/gxneur...(no debugging symbols found)...done.

[New LWP 25118]


warning: Could not load shared library symbols for linux-vdso.so.1.

Do you need "set solib-search-path" or "set sysroot"?

[Thread debugging using libthread_db enabled]

Using host libthread_db library "/lib64/libthread_db.so.1".

Core was generated by `gxneur'.

Program terminated with signal SIGSEGV, Segmentation fault.

#0 __strcmp_sse2_unaligned () at ../sysdeps/x86_64/multiarch/strcmp-sse2-unaligned.S:202 202 ../sysdeps/x86_64/multiarch/strcmp-sse2-unaligned.S: Нет такого файла или каталога.

Те же требования (флаги компиляции и особенности компоновки пакета) действительны и для случая ординарной отладки. Только уже для полного списка используемых библиотек, посмотреть который можно с помощью утилиты ldd.

С учётом послезнания (и вопросом о целесообразности включения интерактивной отладочной сессии):

  • x11-misc/gxneur
  • sys-libs/glibc
  • dev-libs/glib
  • x11-libs/libX11
  • x11-libs/libxcb

При отслеживании проблем в современных монстрах (например FireFox) размер дампа может составлять гигабайты. Что при записи core во временный раздел (/tmp/), монтируемый в tmpfs с разумным размером (обычно двух гигабайт хватает за глаза) может привести к проблемам.

[И-23]: [Ссылки по теме]


© imen

Авторство: 
Авторская работа / переводика

Комментарии

Аватар пользователя sasha7777
sasha7777(7 лет 3 месяца)

Как Вы с этим живете????

Аватар пользователя Alex Arx
Alex Arx(8 лет 10 месяцев)

 

Да уж... Лучше уж про Украину...)

Аватар пользователя sasha7777
sasha7777(7 лет 3 месяца)

laugh Есть у меня друг программист, я ему всегда говорю, - Вася, оторвись ты от этого всего, иди ко мне гайки крутить, мозг у тебя скоро лопнет.

А он наберет задач, как псина блох, и где то там но не с нами. Банальные решения ему уже не доступны....

Аватар пользователя И-23
И-23(9 лет 2 месяца)

Не только лишь все знакомы с некоторыми интересными… наблюдениями естествознания.

Аватар пользователя sasha7777
sasha7777(7 лет 3 месяца)

smiley Но кому то ведь надо и это решать, понапридумывали со своими прогрессами кучу фигни, и теперь все маемся...

Аватар пользователя И-23
И-23(9 лет 2 месяца)

«Попробуйте написать инструкцию в знакомой тебе области, по которой не знакомый с этой областью человек гарантированно получит правильный результат. Это длинно, муторно и бесполезно, т.к. всего не учтешь. Тем более когда представишь сколько это писанины, потом объяснений и уточнений. И вы предлагаете потратить столько времени и сил на левого, человека который не только не собирается ничего делать сообщества ..., но даже сам ничего делать не хочет» © _SerEga_

Аватар пользователя sasha7777
sasha7777(7 лет 3 месяца)

smiley Извините камрад, но я даже не вникал, так посмотрел на этот темный лес, и просто по человечески пожалел.

 

Аватар пользователя Lokki
Lokki(9 лет 8 месяцев)

Нас начальство обязало написать руководство для новичков, каждый по своему профилю. Текучка большая.

И у нас через предложение - "в зависимости от ситуации", "ориентируясь на показания датчиков", "методом последовательных приближений".

 

Аватар пользователя sasha7777
sasha7777(7 лет 3 месяца)

Почти невозможно.

Аватар пользователя абра
абра(6 лет 10 месяцев)

в современных монстрах (например FireFox) размер дампа может составлять гигабайты.

33 года назад на "Электронике-79" в RSX-11M+ 300-килобайтный  дамп с помощью CDA трое суток разбирал, нашёл ошибку в паскалевской библиотеке. Больше так никогда не делал, этот кошмар не забытьindecision

Полнота она разная...

Аватар пользователя qdsspb
qdsspb(12 лет 4 месяца)

Не могу устоять.)

//......................................
      L     #DB_Q
      T     #T_DB_Q
      OPN   DB [#T_DB_Q]
      L     #DB_Z
      T     #T_DB_Z
      OPN   DI [#T_DB_Z]
      L     #DW_Q
      SLW   3
      LAR1  
      L     #DW_Z
      SLW   3
      LAR2  
      L     0
      L     #Typ
      ==I   
      JC    M001                        //>>> Datenbytes kopieren
      L     1
      ==I   
      JC    M003                        //>>> Datenworte kopieren
      L     #Typ
      L     2
      ==I   
      JC    M005                        //>>> Datendoppelworte kopieren
//.....................Bytes kopie
M001: L     #ANZA
M002: T     #T_Schleife
      L     DBB [AR1,P#0.0]
      T     DIB [AR2,P#0.0]
      L     P#1.0
      +AR1  
      L     P#1.0
      +AR2  
      L     #T_Schleife
      LOOP  M002
      JU    M007
//.....................Words kopie
M003: L     #ANZA
M004: T     #T_Schleife
      L     DBW [AR1,P#0.0]
      T     DIW [AR2,P#0.0]
      L     P#2.0
      +AR1  
      L     P#2.0
      +AR2  
      L     #T_Schleife
      LOOP  M004
      JU    M007
//.....................DWords kopie
M005: L     #ANZA
M006: T     #T_Schleife
      L     DBD [AR1,P#0.0]
      T     DID [AR2,P#0.0]
      L     P#4.0
      +AR1  
      L     P#4.0
      +AR2  
      L     #T_Schleife
      LOOP  M006
M007: NOP   0

 

Аватар пользователя megodan
megodan(5 лет 10 месяцев)

Почувствуй себя дибилом -- пообщайся с программистом.

Как-же с политиками просто, они просто врут.

Комментарий администрации:  
*** Свиная харя - aftershock.news/?q=comment/10272571#comment-10272571 ***
Аватар пользователя И-23
И-23(9 лет 2 месяца)

Политики просто, в отличие от программистов, предпочитают работать в предметной области, где надлежащая поверка утверждаемого Практикой… «несколько» затруднительна.

ЗЫ: По личным наблюдениям оперирование описываемым уровнем типическому современному погромисту несвойственно.

Аватар пользователя aa1799
aa1799(12 лет 11 месяцев)

Проверка практикой в области работы политиков практически стопроцентная. Про длину цикла нужно помнить, равно как и принцип достаточности критериев проверки.

Аватар пользователя И-23
И-23(9 лет 2 месяца)

Однако как полнота, так и достоверность публично (да и непублично) доступных исходных данных обычно оставляют желать сильно много лучшего.

Аватар пользователя aa1799
aa1799(12 лет 11 месяцев)

В социальной ..эээ... реальности внутри цикла полнота данных в существенной степени зависит от реципиента. Раз.

Объективно различается (в части опознания, ну, ли признания массива знаков (и вещественных и не таковых) как данных) в зависимости от субъектности реципиента в процессе оценки полноты "данных". Два.

А вот в финале цикла практическую достоверность результата может оценить каждая ... далее по тексту.

Аватар пользователя И-23
И-23(9 лет 2 месяца)

Спасибо.
Тот факт, что коммуникация — процесс двусторонний и что необходимо правильно учитывать получателя… мягко говоря неочевиден.

Надлежащий учёт того *факта*, что *индивидуальная* субъектность является приобретением недавнего *исторического* времени тянет за собой ряд вкусных вопросов.