Никогда не используйте эти команды на рабочем NDB Cluster, кроме как под специальным руководством технической поддержки MySQL. Oracle НЕ будет считаться ответственной за неблагоприятные результаты, являющиеся результатом их использования ни при каких других обстоятельствах!
Команды DUMP
могут использоваться в
клиенте управления NDB
(ndb_mgm),
чтобы получить отладочную информацию. Они описаны здесь, а не в
MySQL Manual по следующим причинам:
Они предназначаются только для использования при поиске неисправностей, отладке и подобных действиях разработчиками MySQL, QA и персоналом поддержки.
Из-за пути, которым команды DUMP
взаимодействуют с памятью, они могут заставить управление NDB Cluster
работать со сбоями или даже полностью повиснуть, когда используются.
Форматы, аргументы и даже доступность этих команд не будут стабильны. Вся эта информация подвержена изменениям в любое время без предшествующего уведомления.
По предыдущим причинам команды DUMP
не предназначены для использования в производственной
среде конечными пользователями.
Общий синтаксис:
ndb_mgm> node_id DUMP code [arguments]
Это вызывает сброс в журнал содержания одного или больше регистров
NDB
на узле с ID
node_id.
Затронутые регистры определяются значением
code. Некоторые (но не все) команды
DUMP
принимают дополнительные
параметры, они отмечены и описаны,
когда это применимо.
Отдельные команды DUMP
перечисляются по их
значению code ниже.
Каждый листинг включает следующую информацию:
Значение code.
Соответствующий NDB
ядерный блок
(см. главу 4).
Кодовый символ DUMP
, где определен, если
не определен, это обозначается используя тройную черту:
---
.
Типовой вывод, если не указано иное, предполагается что каждая команда
DUMP
вызвана как показано здесь:
ndb_mgm> 2 DUMP code
Обычно это от журнала кластера, в некоторых случаях, где вывод может быть произведен в журнал узла вместо него, это обозначается. Где команда DUMP производит ошибки, вывод обычно берется из журнала ошибок.
Где применимо, дополнительная информация, такая как возможные
дополнительные параметры,
предупреждения, статус или другие значения, возвращенные
DUMP
, показана. Иначе ее отсутствие обозначается
с помощью [N/A].
Коды команд DUMP
не обязательно определяются последовательно. Например, коды с
2
по 12
в настоящее время не определены и не перечислены.
Однако, индивидуальные коды DUMP
подвержены изменениям, и нет никакой гарантии, что данное кодовое обозначение
продолжит определяться для той же самой цели (или определяться
вообще) со временем.
Нет также никакой гарантии что данный код
DUMP
, даже если в настоящее время не определен,
не будет иметь серьезных последствий, когда используется при
управлении NDB Cluster.
Для получения информации относительно других команд клиента ndb_mgm посмотрите Commands in the NDB Cluster Management Client.
Коды DUMP
в следующих диапазонах в настоящее время не использованы и таким
образом не поддержаны:
3000 - 5000
6000 - 7000
13000 и выше.
1
---
Описание. Информация о переменных фазы 1 запуска (см. раздел 5.4).
Пример вывода.
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: creadyDistCom = 1, cpresident = 5 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: cpresidentAlive = 1, cpresidentCand = 5 (gci: 254325) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: ctoStatus = 0 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 1: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 2: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 3: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 4: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 5: ZRUNNING(3) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 6: ZRUNNING(3) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 7: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 8: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 9: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 10: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 11: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 12: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 13: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 14: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 15: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 16: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 17: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 18: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 19: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 20: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 21: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 22: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 23: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 24: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 25: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 26: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 27: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 28: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 29: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 30: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 31: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 32: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 33: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 34: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 35: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 36: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 37: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 38: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 39: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 40: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 41: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 42: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 43: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 44: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 45: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 46: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 47: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 48: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: creadyDistCom = 1, cpresident = 5 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: cpresidentAlive = 0, cpresidentCand = 5 (gci: 254325) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: ctoStatus = 0 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 1: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 2: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 3: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 4: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 5: ZRUNNING(3) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 6: ZRUNNING(3) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 7: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 8: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 9: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 10: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 11: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 12: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 13: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 14: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 15: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 16: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 17: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 18: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 19: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 20: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 21: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 22: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 23: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 24: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 25: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 26: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 27: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 28: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 29: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 30: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 31: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 32: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 33: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 34: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 35: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 36: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 37: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 38: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 39: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 40: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 41: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 42: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 43: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 44: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 45: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 46: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 47: ZAPI_INACTIVE(7) 2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 48: ZAPI_INACTIVE(7)
Дополнительно. [N/A]
Описание. Сбрасывает счетчик сигналов и информацию фазы запуска.
Пример вывода.
2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 5: Cntr: cstartPhase = 9, cinternalStartphase = 8, block = 0 2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 5: Cntr: cmasterNodeId = 5 2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 6: Cntr: cstartPhase = 9, cinternalStartphase = 8, block = 0 2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 6: Cntr: cmasterNodeId = 5
Дополнительно. [N/A]
Описание. Пишет свободное место в
commitAckMarkerPool
.
Пример вывода.
2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 5: LQH: m_commitAckMarkerPool: 36094 free size: 36094 2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 6: LQH: m_commitAckMarkerPool: 36094 free size: 36094
Дополнительно. [N/A]
Описание. Пишет данные из
commitAckMarkerPool
.
Пример вывода.
2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 5: LQH: m_commitAckMarkerPool: 36094 free size: 36094 2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 6: LQH: m_commitAckMarkerPool: 36094 free size: 36094
Дополнительно. [N/A]
16
DihDumpNodeRestartInfo
Описание. Предоставляет информацию о перезапуске узла.
Пример вывода.
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 5: c_nodeStartMaster.blockGcp = 0, c_nodeStartMaster.wait = 0 2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 5: [ 0 : cfirstVerifyQueue = 0 clastVerifyQueue = 0 sz: 8193] 2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 5: cgcpOrderBlocked = 0 2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 6: c_nodeStartMaster.blockGcp = 0, c_nodeStartMaster.wait = 0 2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 6: [ 0 : cfirstVerifyQueue = 0 clastVerifyQueue = 0 sz: 8193] 2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 6: cgcpOrderBlocked = 0
Дополнительно. [N/A]
17
DihDumpNodeStatusInfo
Описание. Пишет статус узла.
Пример вывода.
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 5: Printing nodeStatus of all nodes 2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 5: Node = 5 has status = 1 2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 5: Node = 6 has status = 1 2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 6: Printing nodeStatus of all nodes 2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 6: Node = 5 has status = 1 2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 6: Node = 6 has status = 1
Дополнительно. Возможные значения статуса узла показывают в следующей таблице:
Таблица 2.1. Значения статуса узла и имена
Значение | Имя |
---|---|
0 | NOT_IN_CLUSTER |
1 | ALIVE |
2 | STARTING |
3 | DIED_NOW |
4 | DYING |
5 | DEAD |
18
DihPrintFragmentation
Описание. Печатает одну запись на фрагмент таблицы:
перечисляет номер таблицы, номер фрагмента, ID части журнала и ID узлов,
обращающихся с основными и вторичными фрагментами точной копии
этого фрагмента. Должен быть вызван как
ALL DUMP 18
.
Пример вывода.
Node 5: Printing nodegroups -- Node 5: NG 0(0) ref: 4 [ cnt: 2 : 5 6 4294967040 4294967040 ] Node 5: Printing fragmentation of all tables -- Node 5:Table 2 Fragment 0(1) LP: 0 - 5 6 Node 5:Table 2 Fragment 1(1) LP: 0 - 6 5 Node 5:Table 3 Fragment 0(2) LP: 1 - 5 6 Node 5:Table 3 Fragment 1(2) LP: 1 - 6 5 Node 6: Printing nodegroups -- Node 6: NG 0(0) ref: 4 [ cnt: 2 : 5 6 4294967040 4294967040 ] Node 6: Printing fragmentation of all tables -- Node 6:Table 2 Fragment 0(1) LP: 0 - 5 6 Node 6:Table 2 Fragment 1(1) LP: 0 - 6 5 Node 6:Table 3 Fragment 0(2) LP: 1 - 5 6 Node 6:Table 3 Fragment 1(2) LP: 1 - 6 5
Дополнительно. [N/A]
19
DihPrintOneFragmentation
Описание. Должен напечатать информацию об одном фрагменте, но на самом деле вызывает сбой узла.
20
---
Описание. Печатает значения
BackupDataBufferSize
,
BackupLogBufferSize
,
BackupWriteSize
и
BackupMaxWriteSize
.
Пример вывода.
2014-10-13 21:04:13 [MgmtSrvr] INFO -- Node 5: Backup: data: 17039872 log: 17039872 min: 262144 max: 1048576 2014-10-13 21:04:13 [MgmtSrvr] INFO -- Node 6: Backup: data: 17039872 log: 17039872 min: 262144 max: 1048576
Дополнительно. Эта команда может также использоваться, чтобы установить эти параметры, как в этом примере:
ndb_mgm> ALL DUMP 20 3 3 64 512
ALL DUMP 20 3 3 64 512
Sending dump signal with data:
0x00000014 0x00000003 0x00000003 0x00000040
0x00000200
Sending dump signal with data:
0x00000014 0x00000003 0x00000003 0x00000040
0x00000200
...
2014-10-13 21:05:52 [MgmtSrvr] INFO -- Node 5: Backup: data: 3145728 log: 3145728 min: 65536 max: 524288 2014-10-13 21:05:52 [MgmtSrvr] INFO -- Node 6: Backup: data: 3145728 log: 3145728 min: 65536 max: 524288
Необходимо установить каждый из этих параметров к тому же самому
значению на всех узлах, иначе последующий вызов
START BACKUP
обвалит кластер.
21
---
Описание. Посылает сигнал
GSN_BACKUP_REQ
узлу, заставив
этот узел начать резервную копию.
Пример вывода.
Node 2: Backup 1 started from node 2 Node 2: Backup 1 started from node 2 completed StartGCP: 158515 StopGCP: 158518 #Records: 2061 #LogRecords: 0 Data: 35664 bytes Log: 0 bytes
Дополнительно. [N/A]
22 backup_id
---
Описание. Посылает узлу сигнал
GSN_FSREMOVEREQ
.
Это должно удалить резервную копию, имеющую резервный ID backup_id
из резервного каталога, но пока это на самом деле
заставляет узел повиснуть.
Пример вывода.
...
Дополнительно. Кажется, что любой
вызов DUMP 22
заставляет узел
или узлы падать.
23
---
Описание. Сбрасывает в дамп все резервные отчеты и записи файла, принадлежащие тем отчетам.
Пример показывает только единственный отчет с единственным файлом, но могут быть многочисленные отчеты и многократные файлы в рамках каждого отчета.
Пример вывода. Без происходящей резервной копии
(BackupRecord
показано как
0
):
Node 2: BackupRecord 0: BackupId: 5 MasterRef: f70002 ClientRef: 0 Node 2:State: 2 Node 2:file 0: type: 3 flags: H'0
В то время, как резервная копия происходит
(BackupRecord
=
1
):
Node 2: BackupRecord 1: BackupId: 8 MasterRef: f40002 ClientRef: 80010001 Node 2:State: 1 Node 2:file 3: type: 3 flags: H'1 Node 2:file 2: type: 2 flags: H'1 Node 2:file 0: type: 1 flags: H'9 Node 2: BackupRecord 0: BackupId: 110 MasterRef: f70002 ClientRef: 0 Node 2:State: 2 Node 2:file 0: type: 3 flags: H'0
Дополнительно. Возможные значения
State
показывают в следующей таблице:
Таблица 2.2. Значения State и описание каждого статуса.
Значение | State | Описание |
---|---|---|
0 | INITIAL | ... |
1 | DEFINING |
Определение резервного содержания и параметров. |
2 | DEFINED |
Сигнал DEFINE_BACKUP_CONF послан точной
копией фрагмента, полученной с разбивкой по источникам. |
3 | STARTED |
Создание триггеров. |
4 | SCANNING |
Просмотр фрагментов. |
5 | STOPPING |
Закрытие файлов. |
6 | CLEANING |
Освобождение ресурсов. |
7 | ABORTING |
Прерывание резервной копии. |
Типы показывают в следующей таблице:
Таблица 2.3. Значения типа файла и имена
Значение | Имя |
---|---|
1 | CTL_FILE |
2 | LOG_FILE |
3 | DATA_FILE |
4 | LCP_FILE |
Флаги показывают в следующей таблице:
Таблица 2.4. Флаговые значения и имена
Значение | Имя |
---|---|
0x01 |
BF_OPEN |
0x02 |
BF_OPENING |
0x04 |
BF_CLOSING |
0x08 |
BF_FILE_THREAD |
0x10 |
BF_SCAN_THREAD |
0x20 |
BF_LCP_META |
24
---
Описание. Печатает информацию пула резервных записей.
Пример вывода.
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: Backup - dump pool sizes 2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: BackupPool: 2 BackupFilePool: 4 TablePool: 323 2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: AttrPool: 2 TriggerPool: 4 FragmentPool: 323 2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: PagePool: 1579 2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: Backup - dump pool sizes 2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: BackupPool: 2 BackupFilePool: 4 TablePool: 323 2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: AttrPool: 2 TriggerPool: 4 FragmentPool: 323 2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: PagePool: 1579
Дополнительно.
Если 2424
передается как аргумент (например,
2 DUMP 24 2424
), это вызывает LCP.
25
NdbcntrTestStopOnError
Описание. Уничтожает узел данных или узлы.
Пример вывода.
...
Дополнительно. [N/A]
70
NdbcntrStopNodes
Описание. Закрытие узла данных принудительно.
Пример вывода.
...
Дополнительно. [N/A]
400
NdbfsDumpFileStat-
Описание. Обеспечивает статистику файловой системы
NDB
.
Пример вывода.
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5: NDBFS: Files: 28 Open files: 10 2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Idle files: 18 Max opened files: 12 2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Bound Threads: 28 (active 10) Unbound threads: 2 2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Max files: 0 2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Requests: 256 2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6: NDBFS: Files: 28 Open files: 10 2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Idle files: 18 Max opened files: 12 2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Bound Threads: 28 (active 10) Unbound threads: 2 2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Max files: 0 2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Requests: 256
Дополнительно. [N/A]
401
NdbfsDumpAllFiles
Описание. Печатает дескрипторы файлов файловой системы
NDB
и статусы (OPEN
или CLOSED
).
Пример вывода.
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: NDBFS: Dump all files: 28 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:0 (0x7f5aec0029f0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:1 (0x7f5aec0100f0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:2 (0x7f5aec01d780): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:3 (0x7f5aec02add0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:4 (0x7f5aec0387f0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:5 (0x7f5aec045e40): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:6 (0x7f5aec053490): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:7 (0x7f5aec060ae0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:8 (0x7f5aec06e130): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:9 (0x7f5aec07b780): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 10 (0x7f5aec088dd0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 11 (0x7f5aec0969f0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 12 (0x7f5aec0a4040): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 13 (0x7f5aec0b1690): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 14 (0x7f5aec0bece0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 15 (0x7f5aec0cc330): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 16 (0x7f5aec0d9980): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 17 (0x7f5aec0e6fd0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 18 (0x7f5aec0f4620): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 19 (0x7f5aec101c70): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 20 (0x7f5aec10f2c0): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 21 (0x7f5aec11c910): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 22 (0x7f5aec129f60): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 23 (0x7f5aec1375b0): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 24 (0x7f5aec144c00): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 25 (0x7f5aec152250): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 26 (0x7f5aec15f8a0): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 27 (0x7f5aec16cef0): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: NDBFS: Dump all files: 28 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:0 (0x7fa0300029f0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:1 (0x7fa0300100f0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:2 (0x7fa03001d780): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:3 (0x7fa03002add0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:4 (0x7fa0300387f0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:5 (0x7fa030045e40): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:6 (0x7fa030053490): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:7 (0x7fa030060ae0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:8 (0x7fa03006e130): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:9 (0x7fa03007b780): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 10 (0x7fa030088dd0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 11 (0x7fa0300969f0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 12 (0x7fa0300a4040): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 13 (0x7fa0300b1690): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 14 (0x7fa0300bece0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 15 (0x7fa0300cc330): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 16 (0x7fa0300d9980): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 17 (0x7fa0300e6fd0): CLOSED 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 18 (0x7fa0300f4620): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 19 (0x7fa030101c70): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 20 (0x7fa03010f2c0): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 21 (0x7fa03011c910): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 22 (0x7fa030129f60): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 23 (0x7fa0301375b0): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 24 (0x7fa030144c00): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 25 (0x7fa030152250): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 26 (0x7fa03015f8a0): OPEN 2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 27 (0x7fa03016cef0): OPEN
Дополнительно. [N/A]
402
NdbfsDumpOpenFiles
Описание. Список открытых файлов файловой системы
NDB
.
Пример вывода.
Node 2: NDBFS: Dump open files: 10 Node 2:0 (0x8792f70): /usr/local/mysql/cluster/ndb_2_fs/D1/DBDIH/P0.sysfile Node 2:1 (0x8794590): /usr/local/mysql/cluster/ndb_2_fs/D2/DBDIH/P0.sysfile Node 2:2 (0x878ed10): /usr/local/mysql/cluster/ndb_2_fs/D8/DBLQH/S0.FragLog Node 2:3 (0x8790330): /usr/local/mysql/cluster/ndb_2_fs/D9/DBLQH/S0.FragLog Node 2:4 (0x8791950): /usr/local/mysql/cluster/ndb_2_fs/D10/DBLQH/S0.FragLog Node 2:5 (0x8795da0): /usr/local/mysql/cluster/ndb_2_fs/D11/DBLQH/S0.FragLog Node 2:6 (0x8797358): /usr/local/mysql/cluster/ndb_2_fs/D8/DBLQH/S1.FragLog Node 2:7 (0x8798978): /usr/local/mysql/cluster/ndb_2_fs/D9/DBLQH/S1.FragLog Node 2:8 (0x8799f98): /usr/local/mysql/cluster/ndb_2_fs/D10/DBLQH/S1.FragLog Node 2:9 (0x879b5b8): /usr/local/mysql/cluster/ndb_2_fs/D11/DBLQH/S1.FragLog
Дополнительно. [N/A]
403
NdbfsDumpIdleFiles
Описание. Список простаивающих дескрипторов файлов файловой системы
NDB
.
Пример вывода.
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: NDBFS: Dump idle files: 18 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:0 (0x7f5aec0029f0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:1 (0x7f5aec0100f0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:2 (0x7f5aec01d780): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:3 (0x7f5aec02add0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:4 (0x7f5aec0387f0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:5 (0x7f5aec045e40): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:6 (0x7f5aec053490): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:7 (0x7f5aec060ae0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:8 (0x7f5aec06e130): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:9 (0x7f5aec07b780): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 10 (0x7f5aec088dd0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 11 (0x7f5aec0969f0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 12 (0x7f5aec0a4040): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 13 (0x7f5aec0b1690): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 14 (0x7f5aec0bece0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 15 (0x7f5aec0cc330): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 16 (0x7f5aec0d9980): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 17 (0x7f5aec0e6fd0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: NDBFS: Dump idle files: 18 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:0 (0x7fa0300029f0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:1 (0x7fa0300100f0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:2 (0x7fa03001d780): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:3 (0x7fa03002add0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:4 (0x7fa0300387f0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:5 (0x7fa030045e40): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:6 (0x7fa030053490): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:7 (0x7fa030060ae0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:8 (0x7fa03006e130): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:9 (0x7fa03007b780): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 10 (0x7fa030088dd0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 11 (0x7fa0300969f0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 12 (0x7fa0300a4040): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 13 (0x7fa0300b1690): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 14 (0x7fa0300bece0): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 15 (0x7fa0300cc330): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 16 (0x7fa0300d9980): CLOSED 2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 17 (0x7fa0300e6fd0): CLOSED
Дополнительно. [N/A]
406
NdbfsDumpRequests
Описание. Включает информацию
NDBFS
в LCP и GCP
написанные в журналы узла данных.
Пример вывода.
2019-01-31 18:40:31 [ndbd] INFO -- NDBFS: Dump requests: 0
Дополнительно. Добавлено в NDB 7.5.14, 7.6.10 и 8.0.16 (Bug #28922609).
502
CmvmiSchedulerExecutionTimer
Описание. Устанавливает
SchedulerExecutionTimer
.
Пример вывода.
.....
Дополнительно. [N/A]
503
CmvmiRealtimeScheduler
Описание. Устанавливает
Устанавливает RealtimeScheduler
.
Пример вывода.
.....
Дополнительно. [N/A]
504
CmvmiExecuteLockCPU
Описание. Устанавливает
LockExecuteThreadToCPU
.
Пример вывода.
.....
Дополнительно. [N/A]
505
CmvmiMaintLockCPU
Описание. Устанавливает
LockMaintThreadsToCPU
.
Пример вывода.
.....
Дополнительно. [N/A]
506
CmvmiSchedulerSpinTimer
Описание. Устанавливает
SchedulerSpinTimer
.
Пример вывода.
.....
Дополнительно. [N/A]
Описание. Пишет информацию о синхронизациях в журналы
узла данных. Полезно вместе с параметром
HeartbeatOrder
.
Пример вывода.
HB: pres:5 own:5 dyn:1-0 mxdyn:2 hb:6->5->6 node:dyn-hi,cfg: 5:1-0,0 6:2-0,0
Дополнительно. [N/A]
935
QmgrErr935
Описание. Unknown.
Пример вывода. ...
Дополнительно. [N/A]
Описание. Печатает использование памяти узла данных
(
ACC
и
TUP
), сколько страниц данных и
какой процент использования
DataMemory
и
IndexMemory
.
Пример вывода.
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Data usage is 0%(10 32K pages of total 65529) 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Index usage is 0%(7 32K pages of total 65526) 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource global total: 75741 used: 3956 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource reserved total: 70516 used: 3600 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource shared total: 5225 used: 357 spare: 1 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 1 min: 0 max: 0 curr: 357 spare: 0 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 3 min: 65536 max: 65536 curr: 17 spare: 1 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 4 min: 724 max: 724 curr: 130 spare: 0 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 5 min: 1152 max: 1152 curr: 1088 spare: 0 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 6 min: 800 max: 1000 curr: 123 spare: 0 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 7 min: 2240 max: 2240 curr: 2240 spare: 0 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 9 min: 64 max: 0 curr: 1 spare: 0 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Data usage is 0%(10 32K pages of total 65529) 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Index usage is 0%(7 32K pages of total 65526) 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource global total: 75741 used: 3954 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource reserved total: 70516 used: 3597 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource shared total: 5225 used: 358 spare: 1 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 1 min: 0 max: 0 curr: 358 spare: 0 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 3 min: 65536 max: 65536 curr: 17 spare: 1 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 4 min: 724 max: 724 curr: 120 spare: 0 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 5 min: 1152 max: 1152 curr: 1088 spare: 0 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 6 min: 800 max: 1000 curr: 130 spare: 0 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 7 min: 2240 max: 2240 curr: 2240 spare: 0 2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 9 min: 64 max: 0 curr: 1 spare: 0
Когда вызвано как ALL DUMP 1000
,
эта команда сообщает об использовании памяти для каждого узла данных
отдельно в свою очередь.
Дополнительно. Можно также использовать в
ndb_mgm
клиентскую команду
REPORT MEMORYUSAGE
или запросить таблицу
ndbinfo.memoryusage
.
1001
DumpPageMemoryOnFail
Описание. Когда установлено, пишет дамп использования ресурсов при отказе ассигновать требуемые ресурсы. Начиная с NDB 7.6.15 и NDB 8.0.21, это также распечатывает внутреннее состояние менеджера страничной памяти узла данных.
Пример вывода.
.....
Дополнительно. [N/A]
1223
---
Описание. Раньше это вешало узел. В NDB Cluster 7.4 и позже это не имеет никакого эффекта.
Пример вывода.
...
Дополнительно. [N/A]
1224
---
Описание. Раньше это вешало узел. В NDB Cluster 7.4 и позже это не имеет никакого эффекта.
Пример вывода.
...
Дополнительно. [N/A]
1225
---
Описание. Раньше это вешало узел. В NDB Cluster 7.4 и позже это не имеет никакого эффекта.
Пример вывода.
...
Дополнительно. [N/A]
1226
---
Описание. Печатает пул объектов в журнал кластера.
Пример вывода.
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 5: c_obj_pool: 1332 1319 2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 5: c_opRecordPool: 256 256 2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 5: c_rope_pool: 146785 146615 2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 6: c_obj_pool: 1332 1319 2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 6: c_opRecordPool: 256 256 2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 6: c_rope_pool: 146785 146615
Дополнительно. [N/A]
1228
DictLockQueue
Описание. Сбрасывает в дамп содержание внутреннего словаря очереди
блокировок NDB
в журнал кластера.
Пример вывода.
2014-10-15 12:14:08 [MgmtSrvr] INFO -- Node 5: DICT : c_sub_startstop _outstanding 0 _lock 0000000000000000 2014-10-15 12:14:08 [MgmtSrvr] INFO -- Node 6: DICT : c_sub_startstop _outstanding 0 _lock 0000000000000000
Дополнительно. [N/A]
1229
DictDumpGetTabInfoQueue
Описание. Показывает статус очереди
GETTABINFOREQ
.
Пример вывода.
ndb_mgm> ALL DUMP 1229
Sending dump signal with data:
0x000004cd
Sending dump signal with data:
0x000004cd
Дополнительно. Полная отладочная информация требует, чтобы
соответствующие узлы данных формировались с
DictTrace
>= 2 и
соответствующие узлы API с
ApiVerbose
>= 2.
См. описания этих параметров для получения дополнительной информации.
Добавлено в NDB 7.4.12 и NDB 7.5.2 (Bug #20368450).
1332
LqhDumpAllDefinedTabs
Описание. Печатает статус всех таблиц, известных обработчику
локального запроса (
LQH
), в журнал кластера.
Пример вывода.
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 2 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 3 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 4 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 5 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 6 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 7 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 8 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 9 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 10 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 11 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 2 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 3 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 4 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 5 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 6 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 7 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 8 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 9 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 10 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 11 Status: 0 Usage: [ r: 0 w: 0 ] 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0 2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
Дополнительно. [N/A]
1333
LqhDumpNoLogPages
Описание. Сообщает использование буферов журнала отката.
Пример вывода.
2014-10-15 12:16:05 [MgmtSrvr] INFO -- Node 5: LQH: Log pages : 1024 Free: 960 2014-10-15 12:16:05 [MgmtSrvr] INFO -- Node 6: LQH: Log pages : 1024 Free: 960
Дополнительно. Буфер журнала отката измерен в страницах по 32 КБ, таким образом, типовой вывод может интерпретироваться следующим образом:
Общий размер буфера журнала отката. 1024 * 32K = 32MB
Свободный буфер журнала отката. 960 * 32KB = ~31,457KB = ~30MB
Буфер журнала отката используется. (1024 - 960) * 32K = 2,097KB = ~2MB
2300
LqhDumpOneScanRec
Описание. Печатает указанный отчет просмотра. Синтаксис:
DUMP 2300 recordno
.
Пример вывода.
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5: Dblqh::ScanRecord[1]: state=0, type=0, complStatus=0, scanNodeId=0 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:apiBref=0x2f40005, scanAccPtr=0 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:copyptr=-256, ailen=6, complOps=0, concurrOps=16 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:errCnt=0, schV=1 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:stpid=0, flag=2, lhold=0, lmode=0, num=134 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:relCount=16, TCwait=0, TCRec=3, KIflag=0 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:LcpScan=1RowId(0:0) 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[1]: state=0, type=0, complStatus=0, scanNodeId=0 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:apiBref=0x2f40006, scanAccPtr=0 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:copyptr=-256, ailen=6, complOps=0, concurrOps=16 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=1 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=2, lhold=0, lmode=0, num=134 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:relCount=16, TCwait=0, TCRec=2, KIflag=0 2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:LcpScan=1RowId(0:0)
Дополнительно. [N/A]
2301
LqhDumpAllScanRec
Описание. Сбрасывает дамп всех записей просмотра в журнал кластера.
Пример вывода. Только первые несколько отчетов просмотра, напечатанных для единственного узла данных, показаны здесь.
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: LQH: Dump all ScanRecords - size: 514 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[1]: state=0, type=0, complStatus=0, scanNodeId=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x2f40006, scanAccPtr=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=-256, ailen=6, complOps=0, concurrOps=16 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=1 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=2, lhold=0, lmode=0, num=134 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=16, TCwait=0, TCRec=2, KIflag=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=1RowId(0:0) 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[2]: state=0, type=0, complStatus=0, scanNodeId=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0) 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[3]: state=0, type=0, complStatus=0, scanNodeId=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0) 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[4]: state=0, type=0, complStatus=0, scanNodeId=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0) 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[5]: state=0, type=0, complStatus=0, scanNodeId=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0) 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[6]: state=0, type=0, complStatus=0, scanNodeId=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0) 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[7]: state=0, type=0, complStatus=0, scanNodeId=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0) 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[8]: state=0, type=0, complStatus=0, scanNodeId=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0 2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0) ...
Дополнительно. Этот код DUMP
должен использоваться экономно, если вообще применяться на рабочем NDB
Cluster, так как сотни или даже тысячи отчетов просмотра могут быть созданы
на даже относительно маленьком кластере, который не находится под нагрузкой.
Поэтому часто предпочтительно напечатать единственный отчет просмотра с
помощью DUMP 2300
.
Первая строка обеспечивает общее количество отчетов просмотра для этого узла данных.
2302
LqhDumpAllActiveScanRec
Описание. Только активный просмотр делает запись с этого узла.
Пример вывода.
2014-10-15 12:59:27 [MgmtSrvr] INFO -- Node 5: LQH: Dump active ScanRecord - size: 514 2014-10-15 12:59:27 [MgmtSrvr] INFO -- Node 6: LQH: Dump active ScanRecord - size: 514 ...
Дополнительно. Первая строка в каждом блоке вывода содержит общее количество (активных и бездействующих) отчетов просмотра. Если ничто иное не написано в журнал, то никакие отчеты просмотра в настоящее время не активны.
2303
LqhDumpLcpState
Описание. Статус местной контрольной точки с точки зрения экземпляра блока DBLQH.
Эта команда также выводит статус записи просмотра единственного фрагмента, зарезервированного для этого LCP.
Пример вывода.
2014-10-15 13:01:37 [MgmtSrvr] INFO -- Node 5: Local checkpoint 173 started. Keep GCI = 270929 oldest restorable GCI = 270929 2014-10-15 13:01:38 [MgmtSrvr] INFO -- Node 5: LDM instance 1: Completed LCP, num fragments = 16 num records = 2061, num bytes = 67912 2014-10-15 13:01:38 [MgmtSrvr] INFO -- Node 6: LDM instance 1: Completed LCP, num fragments = 16 num records = 2061, num bytes = 67912 2014-10-15 13:01:38 [MgmtSrvr] INFO -- Node 5: Local checkpoint 173 completed 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5: == LQH LCP STATE == 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:clcpCompletedState=0, c_lcpId=173, cnoOfFragsCheckpointed=0 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:lcpState=0 lastFragmentFlag=0 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5: currentFragment.fragPtrI=15 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5: currentFragment.lcpFragOrd.tableId=10 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:numFragLcpsQueued=0 reportEmpty=0 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:m_EMPTY_LCP_REQ=0000000000000000 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6: == LQH LCP STATE == 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:clcpCompletedState=0, c_lcpId=173, cnoOfFragsCheckpointed=0 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:lcpState=0 lastFragmentFlag=0 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6: currentFragment.fragPtrI=15 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6: currentFragment.lcpFragOrd.tableId=10 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:numFragLcpsQueued=0 reportEmpty=0 2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:m_EMPTY_LCP_REQ=0000000000000000
Дополнительно. [N/A]
2304
---
Описание. Эта команда заставляет все фрагменты файлов журнала и их
статусы быть написанными в файл узла данных (в случае узла данных, имеющего
ID узла 5
, это было бы
ndb_5_out.log
). Количеством фрагментов файлов
журнала управляет параметр конфигурации узла данных
NoOfFragmentLogFiles
.
Пример вывода. Следующее взято из
ndb_5_out.log
в кластере
NDB, имеющем 2 узла данных:
LP 0 blockInstance: 1 partNo: 0 state: 0 WW_Gci: 1 gcprec: -256 flq: 4294967040 4294967040 currfile: 0 tailFileNo: 0 logTailMbyte: 2 cnoOfLogPages: 1016 problems: 0x0 file 0(0)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 75 file 1(1)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0 file 2(2)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 3(3)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 4(4)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 5(5)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 6(6)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 7(7)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 8(8)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 9(9)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 10(10)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 11(11)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 12(12)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 13(13)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 14(14)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 15(15)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 LP 1 blockInstance: 1 partNo: 1 state: 0 WW_Gci: 1 gcprec: -256 flq: 4294967040 4294967040 currfile: 16 tailFileNo: 0 logTailMbyte: 2 cnoOfLogPages: 1016 problems: 0x0 file 0(16)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 69 file 1(17)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0 file 2(18)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 3(19)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 4(20)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 5(21)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 6(22)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 7(23)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 8(24)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 9(25)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 10(26)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 11(27)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 12(28)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 13(29)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 14(30)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 15(31)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 LP 2 blockInstance: 1 partNo: 2 state: 0 WW_Gci: 1 gcprec: -256 flq: 4294967040 4294967040 currfile: 32 tailFileNo: 0 logTailMbyte: 2 cnoOfLogPages: 1016 problems: 0x0 file 0(32)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 69 file 1(33)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0 file 2(34)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 3(35)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 4(36)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 5(37)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 6(38)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 7(39)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 8(40)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 9(41)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 10(42)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 11(43)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 12(44)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 13(45)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 14(46)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 15(47)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 LP 3 blockInstance: 1 partNo: 3 state: 0 WW_Gci: 1 gcprec: -256 flq: 4294967040 4294967040 currfile: 48 tailFileNo: 0 logTailMbyte: 2 cnoOfLogPages: 1016 problems: 0x0 file 0(48)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 69 file 1(49)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0 file 2(50)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 3(51)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 4(52)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 5(53)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 6(54)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 7(55)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 8(56)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 9(57)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 10(58)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 11(59)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 12(60)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 13(61)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 14(62)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0 file 15(63)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
Дополнительно. Следующие 2 таблицы предоставляют информацию о кодах состояния изменения файла и кодах статусов файла журнала, как показано в предыдущем примере.
FileChangeState
Таблица 2.5. Коды FileChangeState
Значение | Статус изменения файла |
---|---|
0 | Строка содержания 1, столбец 2|
1 | NOT_ONGOING |
2 | BOTH_WRITES_ONGOING |
3 | LAST_WRITE_ONGOING |
4 | WRITE_PAGE_ZERO_ONGOING |
LogFileStatus
Таблица 2.6. Коды LogFileStatus со статусом файла журнала и описаниями
Значение | Статус файла журнала | Описание |
---|---|---|
0 | LFS_IDLE |
Отчет файла журнала не в использовании |
1 | CLOSED |
Файл журнала закрывается. |
2 | OPENING_INIT |
--- |
3 | OPEN_SR_FRONTPAGE |
Файл журнала открыт как часть системного перезапуска, открыт файл 0, чтобы найти первую страницу части регистрации. |
4 | OPEN_SR_LAST_FILE |
Открытие последнего файла журнала, который был написан перед системным перезапуском. |
5 | OPEN_SR_NEXT_FILE |
Открытие файла журнала, который был 16 файлов назад (чтобы найти затем доступную информацию о GCP). |
6 | OPEN_EXEC_SR_START |
Файл журнала открыт, выполняя регистрацию во время системного перезапуска. |
7 | OPEN_EXEC_SR_NEW_MBYTE |
--- |
8 | OPEN_SR_FOURTH_PHASE |
--- |
9 | OPEN_SR_FOURTH_NEXT |
--- |
10 | OPEN_SR_FOURTH_ZERO |
--- |
11 | OPENING_WRITE_LOG | Файл журнала открыт, записывая регистрацию (нормальное функционирование). |
12 | OPEN_EXEC_LOG |
--- |
13 | CLOSING_INIT |
--- |
14 | CLOSING_SR | Файл журнала закрыт как часть системного перезапуска. В настоящее время пытается найти, где начать выполнять регистрацию. |
15 | CLOSING_EXEC_SR |
Файл журнала закрыт как часть выполнения регистрации во время системного перезапуска. |
16 | CLOSING_EXEC_SR_COMPLETED |
--- |
17 | CLOSING_WRITE_LOG |
Файл журнала закрыт как часть написания регистрации во время нормального функционирования. |
18 | CLOSING_EXEC_LOG |
--- |
19 | OPEN_INIT |
--- |
20 | OPEN |
Открытый файл журнала. |
21 | OPEN_SR_READ_INVALIDATE_PAGES |
--- |
22 | CLOSE_SR_READ_INVALIDATE_PAGES |
--- |
23 | OPEN_SR_WRITE_INVALIDATE_PAGES |
--- |
24 | CLOSE_SR_WRITE_INVALIDATE_PAGES |
--- |
25 | OPEN_SR_READ_INVALIDATE_SEARCH_FILES |
--- |
26 | CLOSE_SR_READ_INVALIDATE_SEARCH_FILES |
--- |
27 | CLOSE_SR_READ_INVALIDATE_SEARCH_LAST_FILE |
--- |
28 | OPEN_EXEC_LOG_CACHED |
--- |
29 | CLOSING_EXEC_LOG_CACHED |
--- |
Больше информации о том, как эти коды
определяются, может быть найдено в исходном файле
storage/ndb/src/kernel/blocks/dblqh/Dblqh.hpp
.
См. также раздел 2.43.
2305
---
Описание. Показывает состояния всех файлов журнала фрагмента (см. раздел 2.42), затем падает узел.
Пример вывода.
...
Дополнительно. [N/A]
2308
---
Описание. Уничтожает узел.
Пример вывода.
...
Дополнительно. [N/A]
2315
LqhErrorInsert5042
Описание. [Unknown]
Пример вывода. [N/A]
Дополнительно. [N/A]
data_node_id 2350 operation_filters
---
---
Описание. Определяются все операции на узле данных, согласно типу и другим параметрам, определенным операционным фильтром.
Пример вывода. Показать все операции на узле данных 2 от узла API 5:
ndb_mgm> 2 DUMP 2350 1 5
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: Starting dump of operations
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: OP[470]:
Tab: 4 frag: 0 TC: 3 API: 5(0x8035)transid: 0x31c 0x3500500 op: SCAN state: InQueue
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: End of operation dump
Дополнительно. Информация об операционном фильтре и операционных значениях состояния следует.
Операционные значения фильтра. Операционный фильтр (или фильтры) могут взять следующие значения:
Таблица 2.7. Значения фильтра
Значение | Фильтр |
---|---|
0 | ID таблицы |
1 | ID узла API |
2 | 2 ID транзакций, определяя диапазон транзакций |
3 | ID узла координатора транзакций |
В каждом случае ID определенного объекта следует за спецификатором. Посмотрите типовой вывод для примеров.
Операционные состояния. Нормальные состояния, которые могут появиться в выводе этой команды, перечисляются здесь:
Transactions:
Prepared
:
Операционный координатор не работает, ожидая API, чтобы продолжить.
Running
: Операционный координатор
в настоящее время готовит операции.
Committing
,
Prepare to commit
,
Commit sent
:
Операционный координатор передает.
Completing
:
Операционный координатор заканчивает передачу (после того, как
передаст, некоторая очистка необходима).
Aborting
:
Операционный координатор прерывает транзакцию.
Scanning
:
Операционный координатор просматривает.
Scan operations:
WaitNextScan
:
Просмотр не работает, ожидая API.
InQueue
:
Просмотр еще не начался, но ждет в очереди окончания других просмотров.
Primary key operations:
In lock queue
:
Операция ждет на блокировке.
Running
: Операция готовится.
Prepared
: Операция подготовлена, держит
соответствующую блокировку и ожидает передачи или отмены.
Отношение к NDB API. Возможно соответствовать выводу
DUMP 2350
к определенным потокам или
объектам Ndb
.
Сначала предположите, что вы сбрасываете в дамп все операции на узле данных 2
от узла API 5, используя таблицу 4:
ndb_mgm> 2 DUMP 2350 1 5 0 4
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: Starting dump of operations
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: OP[470]:
Tab: 4 frag: 0 TC: 3 API: 5(0x8035)transid: 0x31c 0x3500500 op: SCAN state: InQueue
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: End of operation dump
Предположим, что вы работаете с экземпляром
Ndb
с именем
MyNdb
, которому эта операция принадлежит.
Вы видите, что дело обстоит так, вызывая метод
getReference()
объекта
Ndb
:
printf("MyNdb.getReference(): 0x%x\n", MyNdb.getReference());
Вывод от предыдущей строки кода:
MyNdb.getReference(): 0x80350005
Верхние 16 битов показанного значения соответствуют числу в круглых
скобках от строки OP
в команде
DUMP
(8035). Для подробностей об
этом методе посмотрите
Ndb::getReference().
node_id 2352 operation_id
---
---
Описание. Получает информацию об операции с данным ID.
Пример вывода. Во-первых, получите дамп операций.
Здесь мы используем
DUMP 2350
, чтобы получить дамп всех операций
на узле данных 5 от узла API 100:
2014-10-15 13:36:26 [MgmtSrvr] INFO -- Node 100: Event buffer status: used=1025KB(100%) alloc=1025KB(0%) max=0B apply_epoch=273419/1 latest_epoch=273419/1
В этом случае есть единственная операция, о которой сообщают относительно
узла 2, чей ID = 3
. Чтобы получить ID
транзакции и первичный ключ для операции, имеющей 3 как ее ID, мы используем
ID узла и ID операции с DUMP 2352
:
ndb_mgm> 5 DUMP 2352 3
Следующее написано в журнал кластера:
2014-10-15 13:45:20 [MgmtSrvr] INFO -- Node 5: OP[3]: transid: 0xf 0x806400 key: 0x2
Дополнительно. Надо использовать
DUMP 2350
, чтобы получить ID операции. Посмотрите пример, показанный ранее.
2353
LqhDumpPoolLevels
Описание. Пишет информацию об использовании пула LQH.
Пример вывода.
2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 5: LQH : TcConnection (operation) records in use/total 0/36194 (328 bytes each) 2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 5: LQH : ScanRecord (Fragment) pool in use/total 3/514 (232 bytes each) 2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 6: LQH : TcConnection (operation) records in use/total 0/36194 (328 bytes each) 2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 6: LQH : ScanRecord (Fragment) pool in use/total 3/514 (232 bytes each)
Дополнительно. [N/A]
2354
LqhReportCopyInfo
Описание. Пишет данный фрагмент просмотра от указанного экземпляра. Синтаксис:
DUMP 2354 recordno instanceno
Здесь recordno номер записи фрагмента просмотра,
instanceno
номер экземпляра.
Пример вывода.
2014-10-13 16:30:57 [MgmtSrvr] INFO -- Node 5: LDM instance 1: CopyFrag complete. 0 frags, +0/-0 rows, 0 bytes/29362776 ms 0 bytes/s. 2014-10-13 16:30:57 [MgmtSrvr] INFO -- Node 6: LDM instance 1: CopyFrag complete. 0 frags, +0/-0 rows, 0 bytes/29362818 ms 0 bytes/s.
Дополнительно.
Этот код DUMP
добавлен в NDB 7.4.1.
2355
LqhKillAndSendToDead
Описание. Используемый, чтобы проверить чистое отключение сигнала при сбое узла.
2356
LqhSetTransientPoolMaxSize
Описание. Используемый, чтобы установить максимальный размер для
определяемого переходного пула памяти. Синтаксис:
node_id DUMP 2356 pool_index new_size
.
Дополнительно. Добавлено в NDB 8.0.19 (Bug #30265415, Bug #96757).
2357
LqhResetTransientPoolMaxSize
Описание. Переустанавливает данный пул памяти к его размеру по
умолчанию. Синтаксис: node_id DUMP 2357
pool_index
.
Дополнительно. Добавлено в NDB 8.0.19 (Bug #30265415, Bug #96757).
node_id 2398
---
Описание. Информация о свободном пространстве в файлах части регистрации для узла данных с ID узла node_id. Дамп написан в журнал узла данных, а не кластера.
Пример вывода. Как написано в
ndb_6_out.log
:
REDO part: 0 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb) REDO part: 1 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb) REDO part: 2 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb) REDO part: 3 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb)
Дополнительно. Каждая строка вывода имеет следующий формат (показанный здесь разделен на две строки для читаемости):
REDO part: part_no HEAD: file: start_file_no mbyte: start_pos TAIL: file: end_file_no mbyte: end_pos total: total_space free: free_space (mb)
Журнал отката узла данных разделен на четыре части; таким образом,
part_no всегда число между 0 и 3 включительно. Части сохранены в файловой
системе узла данных как каталоги
D8
, D9
,
D10
и D11
с частью 0 журнала отката, сохраненной в D8
,
частью 1 в D9
и т.д. (см.
раздел 1.1.2
). В рамках каждого каталога можно найти подкаталог
DBLQH
, содержащий файлы
NoOfFragmentLogFiles
.
Значение по умолчанию для NoOfFragmentLogFiles
16. Размер по умолчанию каждого из этих файлов составляет 16 МБ, это может
быть изменено, установив параметр
FragmentLogFileSize
.
start_file_no указывает на номер файла, start_pos это пункт в этом файле,
в котором начинается журнал отката, для примера, part_no = 0 означает, что
журнал отката начинается на уровне приблизительно 12 МБ с конца файла
D8/DBLQH/S6.FragLog
.
Точно так же end_file_no соответствует номеру файла, а end_pos это
пункту в том файле, где журнал отката заканчивается. Таким образом, в
предыдущем примере, конечная точка журнала отката это приблизительно 10 МБ от
конца D8/DBLQH/S6.FragLog
.
total_space показывает общую сумму места, зарезервированного для части
part_no журнала отката. Это равно
NoOfFragmentLogFiles *
FragmentLogFileSize
, по умолчанию это 16 раз по 16 МБ или 256 МБ.
free_space показывает остающуюся сумму. Таким образом, используемая сумма
равна total_space - free_space
в этом примере это 256 - 254 = 2 MB.
Не рекомендуется выполнять DUMP 2398
в то время, как происходит перезапуск узла данных.
node_id 2399
---
Описание. Так же, как
DUMP 2398
, эта команда сбрасывает
информацию о свободном пространстве в файлах части регистрации для узла
данных с ID узла node_id. В отличие от случая с
DUMP 2398
, дамп записан в журнал кластера и
включает число процентов свободного пространства,
остающегося в журнале отката.
Пример вывода.
ndb_mgm> 6 DUMP 2399
Sending dump signal with data:
0x0000095f
Записано в журнал кластера:
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 0 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100 2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 1 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100 2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 2 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100 2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 3 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100 2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 0 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100 2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 1 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100 2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 2 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100 2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 3 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
Дополнительно. Каждая строка вывода использует следующий формат:
timestamp [MgmtSrvr] INFO -- Node node_id: Logpart: part_no head=[file: start_file_no mbyte: start_pos] tail=[file: end_file_no mbyte: end_pos] total mb: total_space free mb: free_space free%: free_pct
timestamp показывает, когда команда была выполнена узлом данных node_id.
Журнал отката узла данных разделен на четыре части. Часть обозначается как
part_no (всегда содержит число между 0 и 3). Части сохранены в каталогах
файловой системы узла данных, названных D8
,
D9
, D10
и
D11
, часть 0 журнала отката сохранена в
D8
, часть 1 в D9
и т.д. В рамках каждого из этих четырех каталогов есть подкаталог
DBLQH
, содержащий
NoOfFragmentLogFiles
фрагмент файлов журнала. Значение по умолчанию для
NoOfFragmentLogFiles
16.
Размер по умолчанию каждого из этих файлов составляет 16 МБ, это может быть
изменено, установив параметр
FragmentLogFileSize
(см.
раздел 1.1.2.
start_file_no указывает на номер файла, start_pos это пункт в этом файле,
в котором начинается журнал отката, для примера, part_no = 0 означает, что
журнал отката начинается на уровне приблизительно 12 МБ от конца файла
D8/DBLQH/S6.FragLog
.
Точно так же end_file_no соответствует номеру файла, а end_pos это
пункт в том файле, где журнал отката заканчивается. Таким образом, в
предыдущем примере конечная точка журнала отката находится приблизительно в
10 МБ от конца D8/DBLQH/S6.FragLog
.
total_space показывает общую сумму места, зарезервированного для части
part_no журнала отката. Это равно
NoOfFragmentLogFiles *
FragmentLogFileSize
, по умолчанию это 16 раз по 16 МБ или 256 МБ.
free_space показывает остающуюся сумму. Используемая сумма равна
total_space - free_space
,
в этом примере это 256 - 254 = 2 МБ. free_pct показывает отношение free_space
к total_space, выраженное как процент от целого числа. В примере это равно
100 * (254 / 256), что-то около 99%.
2400 record_id
AccDumpOneScanRec
Описание. Выводит отчет просмотра, имеющий ID записи record_id.
Пример вывода. После ALL DUMP 2400 1
следующий вывод написан в журнал кластера:
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[1]: state=1, transid(0x0, 0x0) 2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0 2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=2 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0 2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0 2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0 2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[1]: state=1, transid(0x0, 0x0) 2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0 2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=2 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0 2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0 2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
Дополнительно. Для дампа всех отчетов просмотра посмотрите раздел 2.56.
2401
AccDumpAllScanRec
Описание. Дампа всех записей просмотра для определенного узла.
Пример вывода.
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: ACC: Dump all ScanRec - size: 514 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[1]: state=1, transid(0x0, 0x0) 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=2 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[2]: state=1, transid(0x0, 0x0) 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=3 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[3]: state=1, transid(0x0, 0x0) 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=4 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0 . . . 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[511]: state=1, transid(0x0, 0x0) 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=512 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[512]: state=1, transid(0x0, 0x0) 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=513 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[513]: state=1, transid(0x0, 0x0) 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=-256 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0 2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
Дополнительно. Используйте эту команду с осторожностью, поскольку может быть очень много просмотров. Если вы хотите сдампить единственную запись просмотра, учитывая ее ID, см. раздел 2.55, для дампа всех активных записей просмотра посмотрите раздел 2.57.
2402
AccDumpAllActiveScanRec
Описание. Выводит все активные записи просмотра.
Пример вывода. Подобно выводу для DUMP 2400 и DUMP 2401. См. раздел 2.56.
Дополнительно. Чтобы вывести все записи просмотра (активные или нет), посмотрите раздел 2.56.
2403 record_id
AccDumpOneOperationRec
Описание. Выводит данный операционный отчет, учитывая его ID.
Никакие аргументы кроме этого (ID узла или
ALL
) не требуются.
Пример вывода.
(For ALL DUMP 2403 1
:)
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: Dbacc::operationrec[1]: transid(0x0, 0x306400) 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: elementIsforward=1, elementPage=131095, elementPointer=118 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: fid=0, fragptr=8 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: hashValue=-946144765 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: nextLockOwnerOp=-256, nextOp=-256, nextParallelQue=2 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: nextSerialQue=-256, prevOp=0 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: prevLockOwnerOp=-256, prevParallelQue=2 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: prevSerialQue=-256, scanRecPtr=-256 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: m_op_bits=0xffffffff, scanBits=0, reducedHashValue=ebe8 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: Dbacc::operationrec[1]: transid(0xf, 0x806400) 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: elementIsforward=1, elementPage=131078, elementPointer=1350 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: fid=1, fragptr=17 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: hashValue=-498516881 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: nextLockOwnerOp=-256, nextOp=-256, nextParallelQue=-256 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: nextSerialQue=-256, prevOp=0 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: prevLockOwnerOp=4, prevParallelQue=-256 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: prevSerialQue=-256, scanRecPtr=-256 2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: m_op_bits=0xffffffff, scanBits=0, reducedHashValue=a4f1
Дополнительно. [N/A]
2404
AccDumpNumOpRecs
Описание. Выводит количество операционных отчетов (общее и свободное количество в журнал кластера.
Пример вывода.
2014-10-15 13:59:27 [MgmtSrvr] INFO -- Node 5: Dbacc::OperationRecords: num=167764, free=131670 2014-10-15 13:59:27 [MgmtSrvr] INFO -- Node 6: Dbacc::OperationRecords: num=167764, free=131670
Дополнительно. Общее количество операционных отчетов определяется
набором значений для параметра
MaxNoOfConcurrentOperations
.
2405
AccDumpFreeOpRecs
---
Описание. Вывод отсутствует, если эту команду вызывают без дополнительных аргументов, если дополнительный аргумент используется, эта команда роняет узел данных.
Пример вывода.
(для 2 DUMP 2405 1
:)
Time: Sunday 01 November 2015 - 18:33:54 Status: Temporary error, restart node Message: Job buffer congestion (Internal error, programming error or missing error message, please report a bug) Error: 2334 Error data: Job Buffer Full Error object: APZJobBuffer.C Program: ./libexec/ndbd Pid: 27670 Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1 Version: Version 5.6.27-ndb-7.4.8
Дополнительно. [N/A]
2406
AccDumpNotFreeOpRecs
Описание. Вывод отсутствует, если эту команду вызывают без дополнительных аргументов, если дополнительный аргумент используется, эта команда роняет узел данных.
Пример вывода.
(для 2 DUMP 2406 1
:)
Time: Sunday 01 November 2015 - 18:39:16 Status: Temporary error, restart node Message: Job buffer congestion (Internal error, programming error or missing error message, please report a bug) Error: 2334 Error data: Job Buffer Full Error object: APZJobBuffer.C Program: ./libexec/ndbd Pid: 27956 Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1 Version: Version 5.6.27-ndb-7.4.8
Дополнительно. [N/A]
В NDB Cluster 7.4 и позже этот код DUMP
печатает ряд записей фрагмента просмотра в журнал кластера.
2500
TcDumpSetOfScanFragRec
Описание. Этот код DUMP
использует синтаксис, показанный здесь:
DUMP 2500 recordno numrecords dbtcinst [activeonly]
Это печатает numrecords записей из dbtcinst, экземпляра
DBTC
, начиная с записи, имеющей номер recno. Последний аргумент
дополнительный, все другие показанные обязательны. activeonly это boolean,
которое определяет, напечатать ли только активные записи. Если установлено в
1 (на самом деле в любое ненулевое значение), только активные записи
печатаются и игнорируются любые свободные записи, не используемые в настоящий
момент. 0 включает все записи. По умолчанию 1.
Пример вывода.
Ц─┌Ц─┌Ц─┌
Дополнительно. [N/A]
До NDB Cluster 7.4 этот код DUMP
имел иной символ и функцию, как описано ниже.
2500
TcDumpAllScanFragRec
Описание. Уничтожает узел данных.
Пример вывода.
Time: Sunday 01 November 2015 - 13:37:11 Status: Temporary error, restart node Message: Assertion (Internal error, programming error or missing error message, please report a bug) Error: 2301 Error data: ArrayPool<T>::getPtr Error object: ../../../../../storage/ndb/src/kernel/vm/ArrayPool.hpp line: 345 (block: CMVMI) Program: ./libexec/ndbd Pid: 13237 Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1 Version: Version 5.6.21-ndb-7.3.7
2501
TcDumpOneScanFragRec
Описание. Вывод отсутствует, если эту команду вызывают без дополнительных аргументов, если дополнительный аргумент используется, эта команда роняет узел данных.
Пример вывода.
(для 2 DUMP 2501 1
:)
Time: Sunday 01 November 2015 - 18:41:41 Status: Temporary error, restart node Message: Assertion (Internal error, programming error or missing error message, please report a bug) Error: 2301 Error data: ArrayPool<T>::getPtr Error object: ../../../../../storage/ndb/src/kernel/vm/ArrayPool.hpp line: 345 (block: DBTC) Program: ./libexec/ndbd Pid: 28239 Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1 Version: Version 5.6.27-ndb-7.4.8
Дополнительно. [N/A]
В NDB Cluster 7.4 и позже этот код может использоваться, чтобы напечатать
ряд отчетов просмотра для данного экземпляра блока
DBTC
в журнал кластера.
2502
TcDumpAllScanRec
Описание. Синтаксис команды:
DUMP 2502 recordno numrecords dbtcinst [activeonly]
Это печатает numrecords записей просмотра из экземпляра
DBTC
номер dbtcinst, начиная с записи
номер recno. Последний аргумент дополнительный, все другие требуются.
activeonly это boolean, который определяет, напечатать ли только активные
отчеты. Если установлено в 1 (на самом деле в любое ненулевое значение),
только активные отчеты печатаются и игнорируются любые свободные отчеты,
которые сейчас не используются. 0 включает все записи. По умолчанию 1.
NDB Cluster 7.3 и ранее:
2502
TcDumpAllScanRec
Описание. Выводит все отчеты просмотра, хранимые блоками TC.
Пример вывода.
Node 2: TC: Dump all ScanRecord - size: 256 Node 2: Dbtc::ScanRecord[1]: state=0nextfrag=0, nofrag=0 Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0 Node 2:schv=0, tab=0, sproc=0 Node 2:apiRec=-256, next=2 Node 2: Dbtc::ScanRecord[2]: state=0nextfrag=0, nofrag=0 Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0 Node 2:schv=0, tab=0, sproc=0 Node 2:apiRec=-256, next=3 Node 2: Dbtc::ScanRecord[3]: state=0nextfrag=0, nofrag=0 Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0 Node 2:schv=0, tab=0, sproc=0 Node 2:apiRec=-256, next=4 . . . Node 2: Dbtc::ScanRecord[254]: state=0nextfrag=0, nofrag=0 Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0 Node 2:schv=0, tab=0, sproc=0 Node 2:apiRec=-256, next=255 Node 2: Dbtc::ScanRecord[255]: state=0nextfrag=0, nofrag=0 Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0 Node 2:schv=0, tab=0, sproc=0 Node 2:apiRec=-256, next=-256 Node 2: Dbtc::ScanRecord[255]: state=0nextfrag=0, nofrag=0 Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0 Node 2:schv=0, tab=0, sproc=0 Node 2:apiRec=-256, next=-256
Дополнительно. [N/A]
Эта команда DUMP
не
поддерживается в NDB 7.4 и позже.
2503
TcDumpAllActiveScanRec
Описание. Дамп всех активных записей просмотра.
Пример вывода.
Node 2: TC: Dump active ScanRecord - size: 256
Дополнительно. [N/A]
2504 record_id
TcDumpOneScanRec
Описание. Выводит единственный отчет просмотра, имеющий ID record_id. Для дампинга всех отчетов просмотра посмотрите раздел 2.64.
Пример вывода.
(для 2 DUMP 2504 1
:)
Node 2: Dbtc::ScanRecord[1]: state=0nextfrag=0, nofrag=0 Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0 Node 2:schv=0, tab=0, sproc=0 Node 2:apiRec=-256, next=2
Дополнительно. Признаки в выводе этой команды описаны следующим образом:
ScanRecord. Номер слота отчета просмотра (то же самое, как record_id).
state. Одно из значений (ScanState
в Dbtc.hpp
):
Таблица 2.8. Значение ScanState
Значение | Статус |
---|---|
0 | IDLE |
1 | WAIT_SCAN_TAB_INFO |
2 | WAIT_AI |
3 | WAIT_FRAGMENT_COUNT |
4 | RUNNING |
5 | CLOSING_SCAN |
nextfrag
: ID следующего фрагмента,
который будет просмотрен. Используется процессом просмотра фрагмента, когда
это готово к следующему фрагменту.
nofrag
:
Общее количество фрагментов в просматриваемой таблице.
ailen
:
Длина ожидаемой информации атрибута.
para
:
Количество процессов просмотра фрагментов,
принадлежащих этому просмотру.
receivedop
:
Количество операций получения.
noOprePperFrag
:
Максимальное количество байтов в пакете.
schv
:
Версия схемы, которая используется этим просмотром.
tab
:
Индекс или таблица, которая просматривается.
sproc
:
Индекс хранимой процедуры, принадлежащей этому просмотру.
apiRec
: Ссылка на
ApiConnectRecord
.
next
: Индекс следующих
ScanRecord
в свободном списке.
2505
TcDumpOneApiConnectRec
Описание. Печатает запись связи API recordno из экземпляра instanceno с использованием синтаксиса, показанного здесь:
DUMP 2505 recordno instanceno
Пример вывода.
...
Дополнительно. Добавлено в NDB 7.4.1.
Эта команда DUMP
не поддерживается в NDB 7.4 и выше.
2506
TcDumpAllApiConnectRec
Описание. [Unknown]
Пример вывода.
Node 2: TC: Dump all ApiConnectRecord - size: 12288 Node 2: Dbtc::ApiConnectRecord[1]: state=0, abortState=0, apiFailState=0 Node 2:transid(0x0, 0x0), apiBref=0x1000002, scanRec=-256 Node 2:ctcTimer=36057, apiTimer=0, counter=0, retcode=0, retsig=0 Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0 Node 2:next=-256 Node 2: Dbtc::ApiConnectRecord[2]: state=0, abortState=0, apiFailState=0 Node 2:transid(0x0, 0x0), apiBref=0x1000002, scanRec=-256 Node 2:ctcTimer=36057, apiTimer=0, counter=0, retcode=0, retsig=0 Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0 Node 2:next=-256 Node 2: Dbtc::ApiConnectRecord[3]: state=0, abortState=0, apiFailState=0 Node 2:transid(0x0, 0x0), apiBref=0x1000002, scanRec=-256 Node 2:ctcTimer=36057, apiTimer=0, counter=0, retcode=0, retsig=0 Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0 Node 2:next=-256 . . . Node 2: Dbtc::ApiConnectRecord[12287]: state=7, abortState=0, apiFailState=0 Node 2:transid(0x0, 0x0), apiBref=0xffffffff, scanRec=-256 Node 2:ctcTimer=36308, apiTimer=0, counter=0, retcode=0, retsig=0 Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0 Node 2:next=-256 Node 2: Dbtc::ApiConnectRecord[12287]: state=7, abortState=0, apiFailState=0 Node 2:transid(0x0, 0x0), apiBref=0xffffffff, scanRec=-256 Node 2:ctcTimer=36308, apiTimer=0, counter=0, retcode=0, retsig=0 Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0 Node 2:next=-256
Дополнительно. Если настройки по умолчанию будут использоваться, вывод этой команды, вероятно, превысит максимальный размер файла журнала.
2507
TcSetTransactionTimeout
Описание. Устанавливает
TransactionDeadlockDetectionTimeout
.
Пример вывода.
...
Дополнительно. [N/A]
2508
TcSetApplTransactionTimeout
Описание. Устанавливает
TransactionInactiveTimeout
.
Пример вывода.
...
Дополнительно. [N/A]
2512 delay
TcStartDumpIndexOpCount
Описание. Выводит значение
MaxNoOfConcurrentIndexOperations
и текущее использование ресурсов в непрерывном цикле. Время
delay между отчетами может быть произвольно определено (в секундах) с
умолчанием 1 и максимальным значением 25 (значения
больше 25 тихо заменены на 25).
Пример вывода. (Один отчет:)
Node 2: IndexOpCount: pool: 8192 free: 8192
Дополнительно. Кажется, нет никакого способа отключить повторную
проверку MaxNoOfConcurrentIndexOperations
после того, как эта команда запущена, кроме перезапуска узла данных.
Может быть предпочтительно использовать
DUMP 2513
(см. раздел 2.72).
2513
TcDumpIndexOpCount
Описание. Выводит значение
MaxNoOfConcurrentIndexOperations
и текущее использование ресурсов.
Пример вывода.
Node 2: IndexOpCount: pool: 8192 free: 8192
Дополнительно. В отличие от непрерывной проверки, сделанной
DUMP 2512
, проверка выполнена только однажды.
2514
TcDumpApiConnectRecSummary
Описание. Предоставляет информационные счетчики для каждого узла API.
Синтаксис для этой команды показывают здесь:
DUMP 2514 [instanceno]
Эта команда берет номер экземпляра
DBTC
(instanceno) как дополнительный
аргумент, если не определен, по умолчанию 0. instanceno не нужен, если есть
только один экземпляр DBTC
.
Пример вывода.
Start of ApiConnectRec summary (6144 total allocated) Api node 10 connect records seized : 0 stateless : 0 stateful : 0 scan : 0 Api node 11 connect records seized : 2 stateless : 0 stateful : 0 scan : 0 Api node 12 connect records seized : 1 stateless : 0 stateful : 0 scan : 0
Общее количество ассигнованных отчетов зависит от количества
транзакций и многих других факторов, значение
MaxNoOfConcurrentTransactions
задает верхний предел. См. описание этого параметра для
получения дополнительной информации.
Дополнительно. Есть два возможных статуса для каждого отчета, перечисленные здесь:
Available: В пуле узла данных, не захваченном любым узлом API.
Seized: Зарезервирован из пула узла данных конкретным API.
Захваченные узлы далее быть разделены на многие категории или подстатусы, как показано в следующем списке:
Ready: Захваченный, готовый к употреблению, может быть вычислен для API как #seized - (#stateless + #stateful + #scan).
Stateless: Запись в последний раз использовалась для транзакции 'stateless' и эффективно готова.
Stateful: Запись используется транзакцией.
Scan: Запись используется для просмотра (таблица или упорядоченный индекс).
2515
TcDumpSetOfApiConnectRec
Описание. Выводит диапазон записей связи API. Синтаксис как показано здесь, где recordno номер первой записи, numrecords число записей, instanceno номер экземпляра блока:
DUMP 2515 recordno numrecords instanceno
Рекомендуется не напечатать больше 10 записей за раз, используя этот код
DUMP
в нагруженном кластере.
Пример вывода.
...
Дополнительно. Добавлено в NDB 7.4.1.
2516
TcDumpOneTcConnectRec
Описание. Печатает запись связи TC recordno экземпляра instanceno с помоью синтаксиса:
DUMP 2516 recordno instanceno
Чтобы напечатать ряд таких записей, надо использовать
DUMP 2517
.
Пример вывода.
...
Дополнительно. Добавлено в NDB 7.4.1.
2517
TcDumpSetOfTcConnectRec
Описание. Печатает диапазон отчетов связи TC. Синтаксис как показан здесь, где recordno номер первого отчета, numrecords количество выводимых записей, instanceno номер экземпляра блока:
DUMP 2517 recordno numrecords instanceno
Рекомендуется не печатать больше 10 отчетов за раз, используя
using DUMP 2517
на нагруженном кластере.
Пример вывода.
...
Дополнительно. Добавлено в NDB 7.4.1.
data_node_id 2550 transaction_filters
---
---
Описание. Дамп всех транзакций узла данных data_node_id, удовлетворяющих условиям, установленным операционным фильтром или фильтрами.
Пример вывода. Дамп всех транзакций узла 2, которые были бездействующими в течение 30 секунд или дольше:
ndb_mgm> 2 DUMP 2550 4 30
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: Starting dump of transactions
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: TRX[123]: API: 5(0x8035) transid: 0x31c 0x3500500 inactive: 42s state:
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: End of transaction dump
Дополнительно. Следующие значения могут использоваться для операционных фильтров. Значение filter должно сопровождаться одним или более ID узлов или в случае последней записи в таблице временем в секундах, которое транзакции были бездействующими:
Таблица 2.9. Значения filter с описаниями
Значение | Filter |
---|---|
1 | ID узла API. |
2 | 2 ID транзакций, определяя диапазон. |
4 | Сколько времени транзакции бездействуют (в секундах). |
2553
TcResourceSnapshot
Описание. Сохраняет снимок от
DBTC
.
Пример вывода.
.....
Дополнительно. [N/A]
2554
TcResourceCheckLeak
Описание. Проверяет снимок, взятый
DUMP 2553
.
Пример вывода.
.....
Дополнительно. [N/A]
2555
TcDumpPoolLevels
Описание. Печатает уровни пула в журнал кластера.
Пример вывода.
ndb_mgm> ALL DUMP 2555
Sending dump signal with data:
0x000009fb
Sending dump signal with data:
0x000009fb
DUMP TcDumpPoolLevels : Bad signal length : 1
ndb_mgm> ALL DUMP 2555 2
Sending dump signal with data:
0x000009fb 0x00000002
Sending dump signal with data:
0x000009fb 0x00000002
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC: instance: 0, Print pool levels 2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC : Concurrent operations in use/total : 0/42769 (152 bytes each) 2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC : Concurrent scans in use/total : 0/256 (120 bytes each) 2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC : Scan Frag records in use/total : 0/511 (64 bytes each) 2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC: instance: 0, Print pool levels 2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC : Concurrent operations in use/total : 0/42769 (152 bytes each) 2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC : Concurrent scans in use/total : 0/256 (120 bytes each) 2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC : Scan Frag records in use/total : 0/511 (64 bytes each)
Дополнительно. Добавлено в NDB 7.4.1.
2556
TcSetTransientPoolMaxSize
Описание. Задает максимальный размер для пула процесса координатора транзакций.
Пример вывода.
.....
Дополнительно. См.
storage/ndb/src/kernel/blocks/dbtc/DbtcMain.cpp
.
2557
TcResetTransientPoolMaxSize
Описание. Сбрасывает максимальный размер для пула процесса координатора транзакций.
Пример вывода.
.....
Дополнительно. См.
storage/ndb/src/kernel/blocks/dbtc/DbtcMain.cpp
и
DUMP 2556
.
2600
CmvmiDumpConnections
Описание. Показывает статус связей между всеми узлами. Когда кластер работает обычно, у каждой связи есть тот же самый статус.
Пример вывода.
Node 3: Connection to 1 (MGM) is connected Node 3: Connection to 2 (MGM) is trying to connect Node 3: Connection to 3 (DB) does nothing Node 3: Connection to 4 (DB) is connected Node 3: Connection to 7 (API) is connected Node 3: Connection to 8 (API) is connected Node 3: Connection to 9 (API) is trying to connect Node 3: Connection to 10 (API) is trying to connect Node 3: Connection to 11 (API) is trying to connect Node 4: Connection to 1 (MGM) is connected Node 4: Connection to 2 (MGM) is trying to connect Node 4: Connection to 3 (DB) is connected Node 4: Connection to 4 (DB) does nothing Node 4: Connection to 7 (API) is connected Node 4: Connection to 8 (API) is connected Node 4: Connection to 9 (API) is trying to connect Node 4: Connection to 10 (API) is trying to connect Node 4: Connection to 11 (API) is trying to connect
Дополнительно. Сообщение is trying to
connect
на самом деле значит, что рассматриваемый узел не был
запущен. Это может также быть замечено, когда там не использованы разделы
[api]
или [mysql]
в
файле настройки узлов config.ini
то есть, когда есть свободные слоты для узлов API или SQL.
2601
CmvmiDumpLongSignalMemory
Описание. [Unknown]
Пример вывода.
Node 2: Cmvmi: g_sectionSegmentPool size: 4096 free: 4096
Дополнительно. [N/A]
2602
CmvmiSetRestartOnErrorInsert
Описание. Устанавливает
RestartOnErrorInsert
.
Пример вывода.
...
Дополнительно. См. описание параметра узла данных для возможных значений.
2603 test_type no_of_loops
CmvmiTestLongSigWithDelay
Описание. Используемый в тестировании, посмотрите
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
Пример вывода.
...
Дополнительно. [N/A]
2604
CmvmiDumpSubscriptions
Описание. Подписки текущего события. Вывод написан в
ndb_node_id_out.log
на каждом узле данных, а не в журнал кластера на сервере управления.
Пример вывода.
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- List subscriptions: Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Subscription: 0, nodeId: 1, ref: 0x80000001 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 0 Level 7 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 1 Level 7 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 2 Level 7 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 3 Level 7 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 4 Level 7 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 5 Level 8 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 6 Level 7 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 7 Level 7 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 8 Level 15 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 9 Level 7 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 10 Level 7 Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 11 Level 15
Дополнительно. Вывод перечисляет все подписки событий, для каждой подписки печатаются строка заголовка и список категорий с их текущими уровнями регистрации. Следующая информация включена:
Subscription
:
Внутренний ID подписки.
nodeID
: ID подписывающегося узла.
ref
: Ссылка блока, состоящая из ID блока
от storage/ndb/include/kernel/BlockNumbers.h
,
сдвинутый налево на 4 шестнадцатеричные цифры (16 битов), сопровождаемый
шестнадцатеричным номером узла с 4 цифрами. Id блока
0x8000
заполнитель, это определяется как
MIN_API_BLOCK_NO
с частью номера узла 1.
Category
:
Категория группы регистрации, как перечислено в
Event Reports Generated in NDB Cluster (см. также файл
storage/ndb/include/mgmapi/mgmapi_config_parameters.h
).
Level
: Уровень событий
(диапазон от 0 до 15).
2605
CmvmiTestLongSig
Описание. Долго сигнализирует, тестируя триггер.
Пример вывода.
.....
Дополнительно. [N/A]
2606
DumpEventLog
Описание. См.
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
Символ, также используется в
storage/ndb/src/mgmsrv/Services.cpp
.
Пример вывода.
.....
Дополнительно. Вызов этой команды с недействительными аргументами может заставить все узлы данных закрыться.
2607
CmvmiLongSignalMemorySnapshotStart
Описание. См.
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
Используется в тестировании использования ресурсов внешнего
ключа и перезапусков узла.
Пример вывода.
.....
Дополнительно. [N/A]
2608
CmvmiLongSignalMemorySnapshot
Описание. См.
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
Используется в тестировании использования ресурсов внешнего
ключа и перезапусков узла.
Пример вывода.
.....
Дополнительно. [N/A]
2609
CmvmiLongSignalMemorySnapshotCheck
Описание. См.
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
Используется в тестировании использования ресурсов внешнего
ключа и перезапусков узла.
Пример вывода.
.....
Дополнительно. [N/A]
2610
CmvmiSetKillerWatchdog
Описание. Активирует или дезактивирует контрольный модуль, который
на следующем предупреждении после активации закрывает узел данных.
Это обеспечивает регистрацию трассировки, которая включает трассировки
сигнала, если процесс узла был начат с опцией
--core-file
, дамп ядра
также произведен, когда это происходит.
Синтаксис: DUMP 2610 [value]
.
Используйте 1 для value или пропустите value, чтобы активировать,
используйте 0, чтобы дезактивировать.
Пример вывода. Client:
ndb_mgm>ALL DUMP 2610 1
Sending dump signal with data: 0x00000a32 0x00000001 Sending dump signal with data: 0x00000a32 0x00000001 Sending dump signal with data: 0x00000a32 0x00000001 Sending dump signal with data: 0x00000a32 0x00000001 ndb_mgm>ALL DUMP 2610 0
Sending dump signal with data: 0x00000a32 0x00000000 Sending dump signal with data: 0x00000a32 0x00000000 Sending dump signal with data: 0x00000a32 0x00000000 Sending dump signal with data: 0x00000a32 0x00000000
Журнал узла:
2017-08-29 13:49:02 [ndbd] INFO -- Watchdog KillSwitch on. 2017-08-29 13:49:15 [ndbd] INFO -- Watchdog KillSwitch off.
Дополнительно. Добавлено в NDB 7.3.7 (Bug #18703922).
2611
CmvmiLongSignalMemorySnapshotCheck2
Описание. См.
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
Используется в тестировании использования ресурсов внешнего
ключа и перезапусков узла.
Пример вывода.
.....
Дополнительно. [N/A]
2612
CmvmiShowLongSignalOwnership
Описание. Пишет список владельцев памяти сигналов в журнал
узла данных. NDB
должен быть собран, используя
NDB_DEBUG_RES_OWNERSHIP
и
WITH_NDB_DEBUG
.
Пример вывода.
CMVMI :: ShowLongSignalOwnership. Not compiled with NDB_DEBUG_RES_OWNERSHIP.
Дополнительно. [N/A]
Описание. Сохраняет потребление ресурсов.
Пример вывода.
.....
Дополнительно. [N/A]
Описание. Проверка, совпадает ли текущее потребление ресурсов с
сохраненным в
DUMP 4000
.
Пример вывода.
.....
Дополнительно. [N/A]
5900
LCPContinue
Описание. Пытается продолжить местную контрольную точку, которая
потерпела неудачу из-за ошибки. NDB
должен быть собран с полной отладкой и включенной вставкой ошибок.
Пример вывода.
...
Дополнительно. [N/A]
7000
---
Описание. Информация о состоянии глобальной контрольной точки.
Пример вывода.
Node 2: ctimer = 299072, cgcpParticipantState = 0, cgcpStatus = 0 Node 2: coldGcpStatus = 0, coldGcpId = 436, cmasterState = 1 Node 2: cmasterTakeOverNode = 65535, ctcCounter = 299072
Дополнительно. [N/A]
7001
---
Описание. Информация о состоянии локальной контрольной точки.
Пример вывода.
Node 2: c_lcpState.keepGci = 1 Node 2: c_lcpState.lcpStatus = 0, clcpStopGcp = 1 Node 2: cgcpStartCounter = 7, cimmediateLcpStart = 0
Дополнительно. [N/A]
7002
---
Описание. Показывает таблицу состояний во время глобальной контрольной точки.
Пример вывода.
Node 2: cnoOfActiveTables = 4, cgcpDelay = 2000 Node 2: cdictblockref = 16384002, cfailurenr = 1 Node 2: con_lineNodes = 2, reference() = 16121858, creceivedfrag = 0
Дополнительно. [N/A]
7003
---
Описание. Показывает состояние первого живого узла после поглощения узла во время глобальной контрольной точки.
Пример вывода.
Node 2: cfirstAliveNode = 2, cgckptflag = 0 Node 2: clocallqhblockref = 16187394, clocaltcblockref = 16056322, cgcpOrderBlocked = 0 Node 2: cstarttype = 0, csystemnodes = 2, currentgcp = 438
Дополнительно. [N/A]
7004
---
Описание. Показывает состояние ведущего во время глобальной контрольной точки.
Пример вывода.
Node 2: cmasterdihref = 16121858, cownNodeId = 2, cnewgcp = 438 Node 2: cndbStartReqBlockref = 16449538, cremainingfrags = 1268 Node 2: cntrlblockref = 16449538, cgcpSameCounter = 16, coldgcp = 437
Дополнительно. [N/A]
7005
---
Описание. Получает глобальные положения начала контрольной точки для одного или более узлов данных.
Пример вывода.
2019-07-31 11:24:55 [MgmtSrvr] INFO -- Node 5: crestartGci = 43780 2019-07-31 11:24:55 [MgmtSrvr] INFO -- Node 6: crestartGci = 43780
Дополнительно. [N/A]
7006
---
Описание. Выводит начальную информацию ведущего для поглощения узла.
Пример вывода.
Node 2: clcpDelay = 20, cgcpMasterTakeOverState = 0 Node 2: cmasterNodeId = 2 Node 2: cnoHotSpare = 0, c_nodeStartMaster.startNode = -256, c_nodeStartMaster.wait = 0
Дополнительно. [N/A]
7007
---
Описание. Получает информацию для неудавшегося главного узла во время поглощения узла.
Пример вывода.
Node 2: c_nodeStartMaster.failNr = 1 Node 2: c_nodeStartMaster.startInfoErrorCode = -202116109 Node 2: c_nodeStartMaster.blockLcp = 0, c_nodeStartMaster.blockGcp = 0
Дополнительно. [N/A]
7008
---
Описание. Информация о неудавшихся узлах во время поглощения.
Пример вывода.
Node 2: cfirstDeadNode = -256, cstartPhase = 7, cnoReplicas = 2 Node 2: cwaitLcpSr = 0
Дополнительно. [N/A]
7009
---
Описание. Получает информацию о последней восстанавливаемой глобальной контрольной точке.
Пример вывода.
2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 5: ccalcOldestRestorableGci = 43773, cnoOfNodeGroups = 1 2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 5: crestartGci = 43780 2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 6: ccalcOldestRestorableGci = 0, cnoOfNodeGroups = 1 2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 6: crestartGci = 43780
Дополнительно. [N/A]
7010
---
Описание. Передает информацию о блоке.
Пример вывода.
Node 2: cminHotSpareNodes = 0, c_lcpState.lcpStatusUpdatedPlace = 9843, cLcpStart = 1 Node 2: c_blockCommit = 0, c_blockCommitNo = 0
Дополнительно. [N/A]
7011
---
Описание. Вывод информации о контрольной точке и других сообщений.
Пример вывода.
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_COPY_GCIREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_COPY_TABREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_UPDATE_FRAG_STATEREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_DIH_SWITCH_REPLICA_REQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_EMPTY_LCP_REQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_GCP_COMMIT_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_GCP_PREPARE_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_GCP_SAVEREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_SUB_GCP_COMPLETE_REP_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_INCL_NODEREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_MASTER_GCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_MASTER_LCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_START_INFOREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_START_RECREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_STOP_ME_REQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_TC_CLOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_TCGETOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_COPY_GCIREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_COPY_TABREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_UPDATE_FRAG_STATEREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_DIH_SWITCH_REPLICA_REQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_EMPTY_LCP_REQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_GCP_COMMIT_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_GCP_PREPARE_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_GCP_SAVEREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_SUB_GCP_COMPLETE_REP_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_INCL_NODEREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_MASTER_GCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_MASTER_LCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_START_INFOREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_START_RECREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_STOP_ME_REQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_TC_CLOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_TCGETOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
Дополнительно. [N/A]
7012
---
Описание. Пишет местную диагностику контрольной точки в журнал кластера.
Пример вывода.
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: ParticipatingDIH = 0000000000000000 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: ParticipatingLQH = 0000000000000000 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LCP_COMPLETE_REP_Counter_DIH = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LCP_COMPLETE_REP_Counter_LQH = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_lastLCP_COMPLETE_REP_id = 12 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_lastLCP_COMPLETE_REP_ref = f60005 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: noOfLcpFragRepOutstanding: 0 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LAST_LCP_FRAG_ORD = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LCP_COMPLETE_REP_From_Master_Received = 0 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: ParticipatingDIH = 0000000000000000 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: ParticipatingLQH = 0000000000000000 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LCP_COMPLETE_REP_Counter_DIH = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LCP_COMPLETE_REP_Counter_LQH = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_lastLCP_COMPLETE_REP_id = 12 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_lastLCP_COMPLETE_REP_ref = f60005 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: noOfLcpFragRepOutstanding: 0 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LAST_LCP_FRAG_ORD = [SignalCounter: m_count=0 0000000000000000] 2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LCP_COMPLETE_REP_From_Master_Received = 1
Дополнительно. [N/A]
7013
DihDumpLCPState
Описание. Предоставляет основную диагностическую информацию относительно состояния местной контрольной точки.
Пример вывода.
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP STATE -- 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: lcpStatus = 0 (update place = 20271) 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: lcpStart = 1 lcpStopGcp = 43780 keepGci = 43773 oldestRestorable = 43773 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: immediateLcpStart = 0 masterLcpNodeId = 5 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 0 : status: 1 place: 20191 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 1 : status: 0 place: 20271 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 2 : status: 1 place: 20191 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 3 : status: 0 place: 20271 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 4 : status: 1 place: 20191 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 5 : status: 0 place: 20271 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 6 : status: 1 place: 20191 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 7 : status: 0 place: 20271 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 8 : status: 1 place: 20191 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 9 : status: 0 place: 20271 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP STATE -- 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP STATE -- 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: lcpStatus = 0 (update place = 22131) 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: lcpStart = 0 lcpStopGcp = 43780 keepGci = 0 oldestRestorable = 0 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: immediateLcpStart = 0 masterLcpNodeId = 5 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 0 : status: 10 place: 21724 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 1 : status: 9 place: 21236 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 2 : status: 2 place: 18414 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 3 : status: 6 place: 18230 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 4 : status: 5 place: 844 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 5 : status: 0 place: 1767 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 6 : status: 0 place: 23722 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 7 : status: 0 place: 0 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 8 : status: 0 place: 0 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 9 : status: 0 place: 0 2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP STATE --
Дополнительно. [N/A]
7014
DihDumpLCPMasterTakeOver
Описание. Предоставляет информацию о состоянии поглощения владельца локальной контрольной точки.
Пример вывода.
2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP MASTER TAKE OVER STATE -- 2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: c_lcpMasterTakeOverState.state = 0 updatePlace = 23717 failedNodeId = 0 2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: c_lcpMasterTakeOverState.minTableId = 0 minFragId = 0 2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP MASTER TAKE OVER STATE -- 2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP MASTER TAKE OVER STATE -- 2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: c_lcpMasterTakeOverState.state = 0 updatePlace = 23717 failedNodeId = 0 2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: c_lcpMasterTakeOverState.minTableId = 0 minFragId = 0 2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP MASTER TAKE OVER STATE --
Дополнительно. [N/A]
7015
---
Описание. Пишет вывод статуса фрагмента таблицы для таблиц
NDB
в журнал кластера в порядке их табличных ID.
Стартовый ID таблицы может быть определен произвольно, в этом случае таблицы,
имеющие более низкие ID, пропущены, иначе выводится информация о статусе для
всех таблиц NDB
.
Типовой вызов/вывод. Вызов этой команды, используя необязательный аргумент ID таблицы, дает следующий вывод в клиенте управления:
ndb_mgm> ALL DUMP 7015 5
Sending dump signal with data:
0x00001b67 0x00000005
Sending dump signal with data:
0x00001b67 0x00000005
Это заставляет пропустить таблицы с 1 по 5 в выводе, написанном в журнал кластера, как показано здесь:
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 5: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 6: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 7: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 8: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 9: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 11: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 12: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 5: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 6: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 7: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 8: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 9: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 11: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 12: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle) 2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
Дополнительно. Вывод DUMP 7015
совпадает с обеспеченным
DUMP 7021
за исключением того, что последний
включает только единственную таблицу, определенную по ID.
Для более подробной информации об областях, включенных в этот вывод,
посмотрите раздел 2.120.
7016
DihAllAllowNodeStart
Описание. [Unknown]
Пример вывода.
...
Дополнительно. [N/A]
7017
DihMinTimeBetweenLCP
Описание. Устанавливает промежуток между местными контрольными точками как количество 4-байтовых слов.
Пример вывода.
ndb_mgm> ALL DUMP 7017 100
Sending dump signal with data:
0x00001b69 0x0000000a
Sending dump signal with data:
0x00001b69 0x0000000a
2019-07-31 14:03:08 [ndbd] INFO -- Reset time between LCP to 200
Дополнительно. См. описание параметра узла данных
TimeBetweenLocalCheckpoints
.
7018
DihMaxTimeBetweenLCP
Описание. Устанавливает время, позволенное между местными контрольными точками, в его максимальное значение (31).
Пример вывода.
ndb_mgm> ALL DUMP 7018
Sending dump signal with data:
0x00001b6a 0x000000fa
Sending dump signal with data:
0x00001b6a 0x000000fa
2019-07-31 14:07:58 [ndbd] INFO -- Set time between LCP to max value
Дополнительно. См. описание параметра узла данных
TimeBetweenLocalCheckpoints
.
Описание. Пишет представление распределенного блока данных об
обработке неудачи узла для неудавшегося узла (данного его ID узла) в журнал
кластера. Выполните как ALL DUMP 7019
FailedNodeId
.
Пример вывода.
ndb_mgm> ALL DUMP 7019 5
Sending dump signal with data:
0x00001b6b 0x00000005
Sending dump signal with data:
0x00001b6b 0x00000005
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:DBTC: capiConnectClosing[5]: 0 2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 5: NF Node 5 tc: 1 lqh: 1 dih: 1 dict: 1 recNODE_FAILREP: 0 2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 5:m_NF_COMPLETE_REP: [SignalCounter: m_count=0 0000000000000000] m_nodefailSteps: 00000000 2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:Suma 7019 5 line: 0 2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_connected_nodes.get(): 0 2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_failedApiNodes.get(): 0 2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_subscriber_nodes.get(): 0 2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_subscriber_per_node[5]: 0 2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:DBTC: capiConnectClosing[5]: 0 2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 6: NF Node 5 tc: 1 lqh: 1 dih: 1 dict: 1 recNODE_FAILREP: 0 2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 6:m_NF_COMPLETE_REP: [SignalCounter: m_count=0 0000000000000000] m_nodefailSteps: 00000000 2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:Suma 7019 5 line: 0 2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_connected_nodes.get(): 0 2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_failedApiNodes.get(): 0 2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_subscriber_nodes.get(): 0 2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_subscriber_per_node[5]: 0
Дополнительно. [N/A]
7020
---
Описание. Эта команда обеспечивает общую функциональность инъекции сигнала. Два дополнительных аргумента всегда требуются:
Номер сигнала, который пошлют.
Номер блока, в который нужно послать сигнал.
Кроме того, некоторые сигналы разрешают или требуют, чтобы дополнительные данные были посланы.
Пример вывода.
...
Дополнительно. [N/A]
7021
---
Описание. Пишет информацию о статусе фрагмента таблицы для одной
таблицы NDB
в журнал кластера.
DUMP 7015
аналог этой команды, за исключением того, что DUMP
7015
пишет информацию для многих (или всех) таблиц
NDB
.
Таблица, чтобы получить информацию, определяется ID таблицы. Можно найти ID для данной таблицы в выводе ndb_show_tables :
shell> ndb_show_tables
idtype statelogging database schema name
29OrderedIndex Online NosysdefPRIMARY
1 IndexTrigger Online - NDB$INDEX_11_CUSTOM
3 IndexTrigger Online - NDB$INDEX_15_CUSTOM
8 UserTableOnline Yes mysqldefNDB$BLOB_7_3
5 IndexTrigger Online - NDB$INDEX_28_CUSTOM
13OrderedIndex Online NosysdefPRIMARY
10UserTableOnline Yes test defn1
27UserTableOnline Yes cdeft1
...
Пример вызова и вывода. Используя ID для таблицы
n1
, найденный заранее в выводе
ndb_show_tables
, вызов этой команды мог бы быть похожим на это, выполняя
ndb_mgm
в системной оболочке:
shell> ndb_mgm -e 'ALL DUMP 7021 10'
Connected to Management Server at: localhost:1186
Sending dump signal with data:
0x00001b67 0x0000000a
Sending dump signal with data:
0x00001b67 0x0000000a
Это пишет следующий вывод в журнал кластера:
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 5: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle) 2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle) 2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 6: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle) 2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle) 2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 7: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 7:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle) 2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 7:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle) 2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 8: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3 2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 8:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle) 2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 8:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle)
Дополнительно. Больше информации о каждой из областей, написанных
DUMP 7021
в журнал кластера,
показывают в следующих нескольких параграфах. Перечисления определяются как
свойства структуры TabRecord
в файле
storage/ndb/src/kernel/blocks/dbdih/Dbdih.hpp
.
TabCopyStatus
(статус копии таблицы)
берет одно из следующих значений: 0: CS_IDLE
, 1:
CS_SR_PHASE1_READ_PAGES
, 2:
CS_SR_PHASE2_READ_TABLE
, 3:
CS_SR_PHASE3_COPY_TABLE
, 4:
CS_REMOVE_NODE
, 5:
CS_LCP_READ_TABLE
, 6:
CS_COPY_TAB_REQ
, 7:
CS_COPY_NODE_STATE
, 8:
CS_ADD_TABLE_MASTER
, 9:
CS_ADD_TABLE_SLAVE
, 10:
CS_INVALIDATE_NODE_LCP
, 11:
CS_ALTER_TABLE
, 12:
CS_COPY_TO_SAVE
, 13:
CS_GET_TABINFO
.
TabUpdateStatus
(статус обновления таблицы)
берет одно из следующих значений: 0: US_IDLE
, 1:
US_LOCAL_CHECKPOINT
, 2:
US_LOCAL_CHECKPOINT_QUEUED
, 3:
US_REMOVE_NODE
, 4:
US_COPY_TAB_REQ
, 5:
US_ADD_TABLE_MASTER
, 6:
US_ADD_TABLE_SLAVE
, 7:
US_INVALIDATE_NODE_LCP
, 8:
US_CALLBACK
.
TabLcpStatus
(статус локальной контрольной
точки таблицы) берет одно из следующих значений: 1:
TLS_ACTIVE
, 2:
TLS_WRITING_TO_FILE
, 3:
TLS_COMPLETED
.
Информация о фрагменте таблицы также предоставляется для каждого узла. Это подобно тому, что показано здесь:
Node 5:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle)
Узел и фрагмент определяются по их ID.
noLcpReplicas
представляет количество точных
копий фрагмента, остающихся для обработки любым продолжающимся процессом LCP.
Остаток строки имеет такой формат:
replica_id(on node_id)=lcp_id(status)
replica_id, node_id и lcp_id это ID, соответственно,
точной копии фрагмента, узла и местной контрольной точки.
status всегда одно из Idle
или
Ongoing
.
7022
---
Описание. Закрытие кластера в случае остановки GCP.
Пример вывода.
.....
Дополнительно. [N/A]
7023
---
Описание. Выводит все активные поглощения.
Пример вывода.
ndb_mgm> ALL DUMP 7023 1
Sending dump signal with data:
0x00001b6f 0x00000001
Sending dump signal with data:
0x00001b6f 0x00000001
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 5: TakeOverPtr(1) starting: 4294967040 flags: 0x0 ref: 0x0, data: 0 2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 5: slaveState: 0 masterState: 0 2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 5: restorableGci: 0 startGci: 0 tab: 4294967040 frag: 4294967040 src: 4294967040 max: 0 2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 6: TakeOverPtr(1) starting: 4294967040 flags: 0x0 ref: 0x0, data: 0 2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 6: slaveState: 0 masterState: 0 2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 6: restorableGci: 0 startGci: 0 tab: 4294967040 frag: 4294967040 src: 4294967040 max: 0
Дополнительно. [N/A]
7024
---
Описание. Проверяет, была ли очищена добавленная неудача фрагмента. Может вызвать сбой узла, поэтому сильно не рекомендуемуется для использования в производстве.
Пример вывода.
...
Дополнительно. Добавлено в NDB 7.3.6 (Bug #18550318).
7026
DihSetGcpStopVals
Описание. Позволяет устанавливать порог остановки GCP.
Пример вывода.
ndb_mgm> ALL DUMP 7026 1 10000
Sending dump signal with data:
0x00001b72 0x00000001 0x00002710
Sending dump signal with data:
0x00001b72 0x00000001 0x00002710
2019-07-31 17:04:40 [ndbd] INFO -- Changing GCP_SAVE max_lag_millis from 0 to 10000
Дополнительно. [N/A]
7027
DihStallLcpStart
Описание. Местная контрольная точка, чтобы остановиться. Используемый для тестирования проблем LCP.
Использование. Эта команда требует дополнительного аргумента
91919191
для активации. Например, чтобы начать
остановку LCP на всех узлах, выполните:
ALL DUMP 7027 91919191
Чтобы очистить остановку и возобновить нормальное функционирование,
вызовите DUMP 7027
с любым аргументом
кроме 91919191 (или даже без
дополнительного аргумента вообще).
Дополнительно. Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26661468).
7032
DihDumpPageRecInfo
Описание. Дамп всей информации страничных записей.
Пример вывода.
MAX_CONCURRENT_LCP_TAB_DEF_FLUSHES 4 MAX_CONCURRENT_DIH_TAB_DEF_OPS 6 MAX_CRASHED_REPLICAS 8 MAX_LCP_STORED 3 MAX_REPLICAS 4 MAX_NDB_PARTITIONS 2048 PACK_REPLICAS_WORDS 32 PACK_FRAGMENT_WORDS 262 PACK_TABLE_WORDS 536586 PACK_TABLE_PAGE_WORDS 2016 PACK_TABLE_PAGES 267 ZPAGEREC 1602 Total bytes : 13129992 LCP Tab def write ops inUse 0 queued 0 Pages in use 0/1602
Дополнительно. [N/A]
7033
DihFragmentsPerNode
Описание. Выводит количество фрагментов на одном или более узлах данных. Никакие аргументы кроме ID узла не используются.
Пример вывода. Вывод ALL DUMP 7033
на
NDB Cluster с двумя узлами данных и
NoOfReplicas=2
:
2014-10-13 19:07:44 [MgmtSrvr] INFO -- Node 5: Fragments per node = 1 2014-10-13 19:07:44 [MgmtSrvr] INFO -- Node 6: Fragments per node = 1
Дополнительно. Добавлено в NDB 7.4.1.
7034
DihDisplayPauseState
Описание. Пишет информацию о любой поставленной на паузу местной контрольной точке в журнал кластера.
Пример вывода.
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: Pause LCP ref: f60005, is_lcp_paused 0, c_dequeue_lcp_rep_ongoing 0 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_pause_lcp_master_state: 0, c_old_node_waiting_for_lcp_end: 0 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_queued_lcp_complete_rep: 0, c_lcp_id_paused: 4294967040 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_last_id_lcp_complete_rep: 12 c_lcp_runs_with_pause_support: 0 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_lcp_id_while_copy_meta_data: 4294967040, c_pause_lcp_start_node: 4294967040 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_PAUSE_LCP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000] 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_FLUSH_LCP_REP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000] 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_lcpState.m_participatingLQH: 0000000000000000 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_pause_participants: 0000000000000000 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: Pause LCP ref: f60005, is_lcp_paused 0, c_dequeue_lcp_rep_ongoing 0 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_pause_lcp_master_state: 0, c_old_node_waiting_for_lcp_end: 0 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_queued_lcp_complete_rep: 0, c_lcp_id_paused: 4294967040 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_last_id_lcp_complete_rep: 12 c_lcp_runs_with_pause_support: 0 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_lcp_id_while_copy_meta_data: 4294967040, c_pause_lcp_start_node: 4294967040 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_PAUSE_LCP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000] 2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_FLUSH_LCP_REP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000]
Дополнительно. [N/A]
Описание. Местная контрольная точка, которая будет выполнена.
Пример вывода.
2019-07-31 17:48:43 [MgmtSrvr] INFO -- Node 5: Local checkpoint 13 started. Keep GCI = 43780 oldest restorable GCI = 43780 2019-07-31 17:48:45 [MgmtSrvr] INFO -- Node 5: LDM(1): Completed LCP, #frags = 18 #records = 0, #bytes = 0 2019-07-31 17:48:47 [MgmtSrvr] INFO -- Node 6: LDM(1): Completed LCP, #frags = 18 #records = 0, #bytes = 0 2019-07-31 17:48:47 [MgmtSrvr] INFO -- Node 5: Local checkpoint 13 completed
Дополнительно. [N/A]
7090
DihSetTimeBetweenGcp
Описание. Устанавливает время между глобальными контрольными
точками к конкретному количеству миллисекунд. Без аргумента устанавливает
этот интервал в значение
TimeBetweenGlobalCheckpoints
(по умолчанию 2000 миллисекунд).
Пример вывода.
ndb_mgm> ALL DUMP 7090
Sending dump signal with data:
0x00001bb2
Sending dump signal with data:
0x00001bb2
2019-07-31 18:03:36 [ndbd] INFO -- Setting time between gcp : 2000
ndb_mgm> ALL DUMP 7090 10000
Sending dump signal with data:
0x00001bb2 0x00002710
Sending dump signal with data:
0x00001bb2 0x00002710
2019-07-31 18:08:01 [ndbd] INFO -- Setting time between gcp : 10000
Дополнительно. [N/A]
7099
DihStartLcpImmediately
Описание. Может использоваться, чтобы вызвать LCP вручную.
Пример вывода. В этом примере узел 2 является главным узлом и управляет синхронизацией LCP/GCP для группы. Независимо от node_id только главный узел отвечает:
Node 2: Local checkpoint 7 started. Keep GCI = 1003 oldest restorable GCI = 947 Node 2: Local checkpoint 7 completed
Дополнительно. Вы, возможно, должны позволить более высокий уровень
регистрации, используя клиентскую команду
CLUSTERLOG
в
ndb_mgm,
чтобы иметь завершение контрольной точки, о котором сообщают,
как показано здесь:
ndb_mgmgt; ALL CLUSTERLOG CHECKPOINT=8
8004
---
Описание. Информация о подписных ресурсах.
Пример вывода.
Node 2: Suma: c_subscriberPoolsize: 260 free: 258 Node 2: Suma: c_tablePoolsize: 130 free: 128 Node 2: Suma: c_subscriptionPoolsize: 130 free: 128 Node 2: Suma: c_syncPoolsize: 2 free: 2 Node 2: Suma: c_dataBufferPoolsize: 1009 free: 1005 Node 2: Suma: c_metaSubscribers count: 0 Node 2: Suma: c_removeDataSubscribers count: 0
Дополнительно. Когда subscriberPool ... free
остается очень низким относительно
subscriberPool ... size
, часто хорошая идея увеличить значение
MaxNoOfTables
(subscriberPool
= 2 *
MaxNoOfTables
). Но могла также
быть проблема с узлами API, не высвобождающими ресурсы правильно, когда они
закрываются. DUMP 8004
обеспечивает способ
контролировать эти значения.
8005
---
Описание. [Unknown]
Пример вывода.
Node 2: Bucket 0 10-0 switch gci: 0 max_acked_gci: 2961 max_gci: 0 tail: -256 head: -256 Node 2: Bucket 1 00-0 switch gci: 0 max_acked_gci: 2961 max_gci: 0 tail: -256 head: -256
Дополнительно. [N/A]
8010
---
Описание. Пишет информацию обо всех подписчиках и связанных узлах в журнал кластера.
Пример вывода. В этом примере узел 1 является узлом управления, узлы 2 и 3 являются узлами данных, узлы 4 и 5 являются узлами SQL (оба работают как источники репликации).
2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 2: c_subscriber_nodes: 0000000000000000000000000000000000000000000000000000000000000030 2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 2: c_connected_nodes: 0000000000000000000000000000000000000000000000000000000000000032 2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 3: c_subscriber_nodes: 0000000000000000000000000000000000000000000000000000000000000030 2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 3: c_connected_nodes: 0000000000000000000000000000000000000000000000000000000000000032
Для каждого узла данных эта команда DUMP
печатает два шестнадцатеричных числа. Это представления битовых полей,
имеющих один бит на ID узла, начиная с узла ID 0 для самого правого бита
(0x01
).
Битовая маска узлов подписчика
(c_subscriber_nodes
)
имеет значительные шестнадцатеричные цифры 30
(decimal 48) или двоичные 110000
, что
равняется узлам 4 и 5. Связанная битовая маска узлов
(c_connected_nodes
)
имеет значительные шестнадцатеричные цифры 32
(decimal 50). Двоичное представление этого числа
110010
, которое имеет
1
для второй, пятой и шестой цифр (считая
справа) и относится к узлам 1, 4, и 5 как связанным узлам.
8011
---
Описание. Пишет информацию обо всех подписчиках в кластере.
Используя эту информацию, необходимо иметь в виду, что у таблицы может быть
много подписок, а у подписки может быть больше, чем один подписчик. Вывод
DUMP 8011
включает следующую информацию:
Для каждой таблицы: ID таблицы, версия и общее количество подписчиков.
Для каждой подписки на данную таблицу : ID подписки.
Для каждого подписчика, принадлежащего данной подписке: ID подписчика, ссылка на отправителя, данные отправителя и ID подписки.
Пример вывода. (Из журнала кластера:)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: -- Starting dump of subscribers -- Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: Table: 2 ver: 4294967040 #n: 1 (ref,data,subscription) Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1:[ 80010004 24 0 ] Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: Table: 3 ver: 4294967040 #n: 1 (ref,data,subscription) Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1:[ 80010004 28 1 ] Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: Table: 4 ver: 4294967040 #n: 1 (ref,data,subscription) Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1:[ 80020004 24 2 ] Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: -- Ending dump of subscribers -- Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: -- Starting dump of subscribers -- Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: Table: 2 ver: 4294967040 #n: 1 (ref,data,subscription) Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2:[ 80010004 24 0 ] Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: Table: 3 ver: 4294967040 #n: 1 (ref,data,subscription) Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2:[ 80010004 28 1 ] Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: Table: 4 ver: 4294967040 #n: 1 (ref,data,subscription) Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2:[ 80020004 24 2 ] Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: -- Ending dump of subscribers --
8013
---
Описание. Пишет всех отставших подписчиков в журнал кластера.
Пример вывода. Этот пример показывает, что написано в журнал
кластера после выполнения ALL DUMP 8013
на кластере с 4 узлами:
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: -- Starting dump of pending subscribers -- 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: Highest epoch 1632087572485, oldest epoch 1632087572485 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: -- End dump of pending subscribers -- 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: Reenable event buffer 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 6: -- Starting dump of pending subscribers -- 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 6: Highest epoch 1632087572486, oldest epoch 1632087572486 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 6: -- End dump of pending subscribers -- 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 7: -- Starting dump of pending subscribers -- 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 7: Highest epoch 1632087572486, oldest epoch 1632087572486 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 7: -- End dump of pending subscribers -- 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 8: -- Starting dump of pending subscribers -- 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 8: Highest epoch 1632087572486, oldest epoch 1632087572486 2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 8: -- End dump of pending subscribers --
Дополнительно. [N/A]
9800
DumpTsman
Описание. УСТАРЕВШИЙ.
В NDB 7.3 и 7.4 это вызывает сбой узла данных, если
VM_TRACE
позволен при сборке. Удален в NDB 7.5.
Пример вывода.
.....
Дополнительно. [N/A]
9801
[TsMan + 1]
Описание. УСТАРЕВШИЙ.
Выводит страницу счетчиков для ID таблицы, файла, страницы и битов. В NDB 7.3
и 7.4 это вызывает сбой узла данных, если VM_TRACE
включен при сборке. Удалено в NDB 7.5.
Пример вывода.
.....
Дополнительно. [N/A]
9988
---
Описание. Блокирует передачу в обозначенный узел данных.
9989
---
Описание. Разблокирует передачу в обозначенный узел данных.
10000
DumpLgman
Описание. Определено, но пока не применяется.
Пример вывода.
...
Дополнительно. [N/A]
10001
LgmanDumpUndoStateClusterLog
Описание. [Unknown]
Пример вывода.
...
Дополнительно. Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26365433).
10002
LgmanDumpUndoStateLocalLog
Описание. [Unknown]
Пример вывода.
...
Дополнительно. Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26365433).
10003
LgmanCheckCallbacksClear
Описание. [Unknown]
Пример вывода.
...
Дополнительно. Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26365433).
11000
DumpPgman
---
Описание. Определено, но пока не применяется.
Пример вывода.
...
Дополнительно. [N/A]
12001
TuxLogToFile
Описание. [Unknown]
Пример вывода.
...
Дополнительно. [N/A]
12002
TuxSetLogFlags
Описание. [Unknown]
Пример вывода.
...
Дополнительно. [N/A]
12009
TuxMetaDataJunk
Описание. Уничтожает узел данных.
Пример вывода.
Time: Sunday 01 November 2015 - 19:49:59 Status: Temporary error, restart node Message: Error OS signal received (Internal error, programming error or missing error message, please report a bug) Error: 6000 Error data: Signal 6 received; Aborted Error object: main.cpp Program: ./libexec/ndbd Pid: 13784 Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1 Version: Version 5.6.27-ndb-7.4.8
Дополнительно. [N/A]
103003
CmvmiRelayDumpStateOrd
Описание. Посылает команду DUMP
,
используя другой узел. Синтаксис показывают здесь и
объясняют в следующем параграфа:
node_id DUMP 103003 other_node_id dump_cmd_no [args]
node_id ID узла, на котором команда дается (как обычно).
other_node_id ID узла, где команда на самом деле выполняется.
dump_cmd_no номер команды DUMP
, которая будет
выполнена на другом узле, args представляет любые дополнительные аргументы,
требуемые этой командой DUMP
.
Пример вывода. Вывод зависит от команды, которую посылают.
Дополнительно. Эта команда особенно полезна, потому что она может
использоваться, чтобы послать DUMP
узлу API, так как узлы API связаны только с узлами данных, а
не с сервером управления.
Добавлено в NDB 8.0.18.
103004
CmvmiDummy
Описание. Регистрирует отправку сигнала
CmvmiSendDummySignal
с использованием
DUMP 103005
в регистратор событий. Включает информацию о размере сигнала,
числе и размере секций сигнала и узле, который послал его.
Синтаксис показывают здесь:
node_id DUMP 103004 to_id from_id padding frag_size sections length1 [length2 ...]
Аргументы описаны в следующем списке:
node_id: ID узла, где команда выполняется.
to_id: ID узла места назначения сигнала.
from_id: ID узла происхождения сигнала.
padding: дополнение размера.
frag_size: размер фрагмента.
sections: количество секций.
length1[, length2][, ...]: длины каждой из секций.
Пример вывода.
...
Дополнительно. Добавлено в NDB 8.0.18.
103005
CmvmiSendDummy
Описание. Посылает CmvmiSendDummySignal
данного размера и секций к указанному узлу. Это используется, чтобы
проверить, что сообщения с определенными размерами сигнала и секциями можно
послать и получить, это также зарегистрировано регистратором событий.
Получающаяся запись в журнале должна соответствовать произведенному, получая
DUMP 103004
. Синтаксис:
node_id DUMP 103005 to_id from_id padding frag_size sections length1 [length2 ...]
Аргументы описаны в следующем списке:
node_id: ID узла, где команда выполняется.
to_id: ID узла места назначения сигнала.
from_id: ID узла происхождения сигнала.
padding: дополнение размера.
frag_size: размер фрагмента.
sections: количество секций.
length1[, length2][, ...]: длины каждой из секций.
Пример вывода.
...
Дополнительно. Добавлено в NDB 8.0.18.
13000
DumpBackup
Описание. Печатает в журнал кластера счетчик резервных копий.
Пример вывода.
2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 5: Compressed Backup: 0 2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 5: Compressed LCP: 0 2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 6: Compressed Backup: 0 2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 6: Compressed LCP: 0
Дополнительно. [N/A]
130001
DumpBackupSetCompressed
Описание. Информация о сжатых резервных копиях в журнал кластера.
Пример вывода.
2019-08-01 14:12:43 [MgmtSrvr] INFO -- Node 5: Compressed Backup: 113871480 2019-08-01 14:12:43 [MgmtSrvr] INFO -- Node 6: Compressed Backup: 16121861
Дополнительно. [N/A]
13002
DumpBackupSetCompressedLCP
Описание. Пишет информацию о сжатых местных контрольных точках в журнал кластера.
Пример вывода.
2019-08-01 14:15:39 [MgmtSrvr] INFO -- Node 5: Compressed LCP: 498009319 2019-08-01 14:15:39 [MgmtSrvr] INFO -- Node 6: Compressed LCP: 535883936
Дополнительно. [N/A]
13003
BackupErrorInsert
Описание. Устанавливает резервную ошибку к указанному значению.
Пример вывода.
ndb_mgm> ALL DUMP 13003 32 1 Sending dump signal with data: 0x000032cb 0x00000020 0x00000001 Sending dump signal with data: 0x000032cb 0x00000020 0x00000001
BACKUP: setting error 32, 1
Дополнительно. [N/A]
14000
DumpDbinfo
Описание. Определено, но пока не применяется.
Пример вывода.
.....
Дополнительно. [N/A]
14001
DbinfoListTables
Описание. Перечисляет таблицы в информационной базе данных
ndbinfo
. Пишет в журнал узла
данных. Каждая таблица перечисляется в формате
table_id, table_name
.
Пример вывода.
--- BEGIN NDB$INFO.TABLES --- 0,tables 1,columns 2,test 3,pools 4,transporters 5,logspaces 6,logbuffers 7,resources 8,counters 9,nodes 10,diskpagebuffer 11,threadblocks 12,threadstat 13,transactions 14,operations 15,membership 16,dict_obj_info 17,frag_mem_use 18,disk_write_speed_base 19,disk_write_speed_aggregate 20,frag_operations 21,restart_info 22,tc_time_track_stats 23,config_values 24,threads 25,cpustat_50ms 26,cpustat_1sec 27,cpustat_20sec 28,cpustat 29,frag_locks 30,acc_operations 31,table_distribution_status 32,table_fragments 33,table_replicas 34,table_distribution_status_all 35,table_fragments_all 36,table_replicas_all 37,stored_tables 38,processes 39,config_nodes --- END NDB$INFO.TABLES ---
Дополнительно. [N/A]
14002
DbinfoListColumns
Описание. Пишет список всех колонок всех таблиц
ndbinfo
в журнал узла данных.
Каждая колонка перечисляется в формате table_id,
column_id, column_name, column_typecode
. ID таблиц получены из
ALL DUMP
14001
. Коды типов столбцов показывают в следующей таблице:
Таблица 2.10. Тип столбца DUMP 14002
Code | Тип |
---|---|
1 | String |
2 | Integer |
3 |
Decimal |
Пример вывода.
--- BEGIN NDB$INFO.COLUMNS --- 0,0,table_id,2 0,1,table_name,1 0,2,comment,1 1,0,table_id,2 1,1,column_id,2 1,2,column_name,1 1,3,column_type,2 1,4,comment,1 2,0,node_id,2 2,1,block_number,2 2,2,block_instance,2 2,3,counter,2 2,4,counter2,3 3,0,node_id,2 3,1,block_number,2 3,2,block_instance,2 3,3,pool_name,1 3,4,used,3 3,5,total,3 3,6,high,3 3,7,entry_size,3 3,8,config_param1,2 3,9,config_param2,2 3,10,config_param3,2 3,11,config_param4,2 3,12,resource_id,2 3,13,type_id,2 4,0,node_id,2 4,1,remote_node_id,2 4,2,connection_status,2 4,3,remote_address,1 4,4,bytes_sent,3 4,5,bytes_received,3 4,6,connect_count,2 4,7,overloaded,2 4,8,overload_count,2 4,9,slowdown,2 4,10,slowdown_count,2 5,0,node_id,2 5,1,log_type,2 5,2,log_id,2 5,3,log_part,2 5,4,total,3 5,5,used,3 5,6,high,3 6,0,node_id,2 6,1,log_type,2 6,2,log_id,2 6,3,log_part,2 6,4,total,3 6,5,used,3 6,6,high,3 7,0,node_id,2 7,1,resource_id,2 7,2,reserved,2 7,3,used,2 7,4,max,2 7,5,high,2 7,6,spare,2 8,0,node_id,2 8,1,block_number,2 8,2,block_instance,2 8,3,counter_id,2 8,4,val,3 9,0,node_id,2 9,1,uptime,3 9,2,status,2 9,3,start_phase,2 9,4,config_generation,2 10,0,node_id,2 10,1,block_instance,2 10,2,pages_written,3 10,3,pages_written_lcp,3 10,4,pages_read,3 10,5,log_waits,3 10,6,page_requests_direct_return,3 10,7,page_requests_wait_queue,3 10,8,page_requests_wait_io,3 11,0,node_id,2 11,1,thr_no,2 11,2,block_number,2 11,3,block_instance,2 12,0,node_id,2 12,1,thr_no,2 12,2,thr_nm,1 12,3,c_loop,3 12,4,c_exec,3 12,5,c_wait,3 12,6,c_l_sent_prioa,3 12,7,c_l_sent_priob,3 12,8,c_r_sent_prioa,3 12,9,c_r_sent_priob,3 12,10,os_tid,3 12,11,os_now,3 12,12,os_ru_utime,3 12,13,os_ru_stime,3 12,14,os_ru_minflt,3 12,15,os_ru_majflt,3 12,16,os_ru_nvcsw,3 12,17,os_ru_nivcsw,3 13,0,node_id,2 13,1,block_instance,2 13,2,objid,2 13,3,apiref,2 13,4,transid0,2 13,5,transid1,2 13,6,state,2 13,7,flags,2 13,8,c_ops,2 13,9,outstanding,2 13,10,timer,2 14,0,node_id,2 14,1,block_instance,2 14,2,objid,2 14,3,tcref,2 14,4,apiref,2 14,5,transid0,2 14,6,transid1,2 14,7,tableid,2 14,8,fragmentid,2 14,9,op,2 14,10,state,2 14,11,flags,2 15,0,node_id,2 15,1,group_id,2 15,2,left_node,2 15,3,right_node,2 15,4,president,2 15,5,successor,2 15,6,dynamic_id,2 15,7,arbitrator,2 15,8,arb_ticket,1 15,9,arb_state,2 15,10,arb_connected,2 15,11,conn_rank1_arbs,1 15,12,conn_rank2_arbs,1 16,0,type,2 16,1,id,2 16,2,version,2 16,3,state,2 16,4,parent_obj_type,2 16,5,parent_obj_id,2 16,6,fq_name,1 17,0,node_id,2 17,1,block_instance,2 17,2,table_id,2 17,3,fragment_num,2 17,4,rows,3 17,5,fixed_elem_alloc_bytes,3 17,6,fixed_elem_free_bytes,3 17,7,fixed_elem_count,3 17,8,fixed_elem_size_bytes,2 17,9,var_elem_alloc_bytes,3 17,10,var_elem_free_bytes,3 17,11,var_elem_count,3 17,12,tuple_l2pmap_alloc_bytes,3 17,13,hash_index_l2pmap_alloc_bytes,3 17,14,hash_index_alloc_bytes,3 18,0,node_id,2 18,1,thr_no,2 18,2,millis_ago,3 18,3,millis_passed,3 18,4,backup_lcp_bytes_written,3 18,5,redo_bytes_written,3 18,6,target_disk_write_speed,3 19,0,node_id,2 19,1,thr_no,2 19,2,backup_lcp_speed_last_sec,3 19,3,redo_speed_last_sec,3 19,4,backup_lcp_speed_last_10sec,3 19,5,redo_speed_last_10sec,3 19,6,std_dev_backup_lcp_speed_last_10sec,3 19,7,std_dev_redo_speed_last_10sec,3 19,8,backup_lcp_speed_last_60sec,3 19,9,redo_speed_last_60sec,3 19,10,std_dev_backup_lcp_speed_last_60sec,3 19,11,std_dev_redo_speed_last_60sec,3 19,12,slowdowns_due_to_io_lag,3 19,13,slowdowns_due_to_high_cpu,3 19,14,disk_write_speed_set_to_min,3 19,15,current_target_disk_write_speed,3 20,0,node_id,2 20,1,block_instance,2 20,2,table_id,2 20,3,fragment_num,2 20,4,tot_key_reads,3 20,5,tot_key_inserts,3 20,6,tot_key_updates,3 20,7,tot_key_writes,3 20,8,tot_key_deletes,3 20,9,tot_key_refs,3 20,10,tot_key_attrinfo_bytes,3 20,11,tot_key_keyinfo_bytes,3 20,12,tot_key_prog_bytes,3 20,13,tot_key_inst_exec,3 20,14,tot_key_bytes_returned,3 20,15,tot_frag_scans,3 20,16,tot_scan_rows_examined,3 20,17,tot_scan_rows_returned,3 20,18,tot_scan_bytes_returned,3 20,19,tot_scan_prog_bytes,3 20,20,tot_scan_bound_bytes,3 20,21,tot_scan_inst_exec,3 20,22,tot_qd_frag_scans,3 20,23,conc_frag_scans,2 20,24,conc_qd_plain_frag_scans,2 20,25,conc_qd_tup_frag_scans,2 20,26,conc_qd_acc_frag_scans,2 20,27,tot_commits,3 21,0,node_id,2 21,1,node_restart_status,1 21,2,node_restart_status_int,2 21,3,secs_to_complete_node_failure,2 21,4,secs_to_allocate_node_id,2 21,5,secs_to_include_in_heartbeat_protocol,2 21,6,secs_until_wait_for_ndbcntr_master,2 21,7,secs_wait_for_ndbcntr_master,2 21,8,secs_to_get_start_permitted,2 21,9,secs_to_wait_for_lcp_for_copy_meta_data,2 21,10,secs_to_copy_meta_data,2 21,11,secs_to_include_node,2 21,12,secs_starting_node_to_request_local_recovery,2 21,13,secs_for_local_recovery,2 21,14,secs_restore_fragments,2 21,15,secs_undo_disk_data,2 21,16,secs_exec_redo_log,2 21,17,secs_index_rebuild,2 21,18,secs_to_synchronize_starting_node,2 21,19,secs_wait_lcp_for_restart,2 21,20,secs_wait_subscription_handover,2 21,21,total_restart_secs,2 22,0,node_id,2 22,1,block_number,2 22,2,block_instance,2 22,3,comm_node_id,2 22,4,upper_bound,3 22,5,scans,3 22,6,scan_errors,3 22,7,scan_fragments,3 22,8,scan_fragment_errors,3 22,9,transactions,3 22,10,transaction_errors,3 22,11,read_key_ops,3 22,12,write_key_ops,3 22,13,index_key_ops,3 22,14,key_op_errors,3 23,0,node_id,2 23,1,config_param,2 23,2,config_value,1 24,0,node_id,2 24,1,thr_no,2 24,2,thread_name,1 24,3,thread_description,1 25,0,node_id,2 25,1,thr_no,2 25,2,OS_user_time,2 25,3,OS_system_time,2 25,4,OS_idle_time,2 25,5,exec_time,2 25,6,sleep_time,2 25,7,spin_time,2 25,8,send_time,2 25,9,buffer_full_time,2 25,10,elapsed_time,2 26,0,node_id,2 26,1,thr_no,2 26,2,OS_user_time,2 26,3,OS_system_time,2 26,4,OS_idle_time,2 26,5,exec_time,2 26,6,sleep_time,2 26,7,spin_time,2 26,8,send_time,2 26,9,buffer_full_time,2 26,10,elapsed_time,2 27,0,node_id,2 27,1,thr_no,2 27,2,OS_user_time,2 27,3,OS_system_time,2 27,4,OS_idle_time,2 27,5,exec_time,2 27,6,sleep_time,2 27,7,spin_time,2 27,8,send_time,2 27,9,buffer_full_time,2 27,10,elapsed_time,2 28,0,node_id,2 28,1,thr_no,2 28,2,OS_user,2 28,3,OS_system,2 28,4,OS_idle,2 28,5,thread_exec,2 28,6,thread_sleeping,2 28,7,thread_spinning,2 28,8,thread_send,2 28,9,thread_buffer_full,2 28,10,elapsed_time,2 29,0,node_id,2 29,1,block_instance,2 29,2,table_id,2 29,3,fragment_num,2 29,4,ex_req,3 29,5,ex_imm_ok,3 29,6,ex_wait_ok,3 29,7,ex_wait_fail,3 29,8,sh_req,3 29,9,sh_imm_ok,3 29,10,sh_wait_ok,3 29,11,sh_wait_fail,3 29,12,wait_ok_millis,3 29,13,wait_fail_millis,3 30,0,node_id,2 30,1,block_instance,2 30,2,tableid,2 30,3,fragmentid,2 30,4,rowid,3 30,5,transid0,2 30,6,transid1,2 30,7,acc_op_id,2 30,8,op_flags,2 30,9,prev_serial_op_id,2 30,10,next_serial_op_id,2 30,11,prev_parallel_op_id,2 30,12,next_parallel_op_id,2 30,13,duration_millis,2 30,14,user_ptr,2 31,0,node_id,2 31,1,table_id,2 31,2,tab_copy_status,2 31,3,tab_update_status,2 31,4,tab_lcp_status,2 31,5,tab_status,2 31,6,tab_storage,2 31,7,tab_type,2 31,8,tab_partitions,2 31,9,tab_fragments,2 31,10,current_scan_count,2 31,11,scan_count_wait,2 31,12,is_reorg_ongoing,2 32,0,node_id,2 32,1,table_id,2 32,2,partition_id,2 32,3,fragment_id,2 32,4,partition_order,2 32,5,log_part_id,2 32,6,no_of_replicas,2 32,7,current_primary,2 32,8,preferred_primary,2 32,9,current_first_backup,2 32,10,current_second_backup,2 32,11,current_third_backup,2 32,12,num_alive_replicas,2 32,13,num_dead_replicas,2 32,14,num_lcp_replicas,2 33,0,node_id,2 33,1,table_id,2 33,2,fragment_id,2 33,3,initial_gci,2 33,4,replica_node_id,2 33,5,is_lcp_ongoing,2 33,6,num_crashed_replicas,2 33,7,last_max_gci_started,2 33,8,last_max_gci_completed,2 33,9,last_lcp_id,2 33,10,prev_lcp_id,2 33,11,prev_max_gci_started,2 33,12,prev_max_gci_completed,2 33,13,last_create_gci,2 33,14,last_replica_gci,2 33,15,is_replica_alive,2 34,0,node_id,2 34,1,table_id,2 34,2,tab_copy_status,2 34,3,tab_update_status,2 34,4,tab_lcp_status,2 34,5,tab_status,2 34,6,tab_storage,2 34,7,tab_type,2 34,8,tab_partitions,2 34,9,tab_fragments,2 34,10,current_scan_count,2 34,11,scan_count_wait,2 34,12,is_reorg_ongoing,2 35,0,node_id,2 35,1,table_id,2 35,2,partition_id,2 35,3,fragment_id,2 35,4,partition_order,2 35,5,log_part_id,2 35,6,no_of_replicas,2 35,7,current_primary,2 35,8,preferred_primary,2 35,9,current_first_backup,2 35,10,current_second_backup,2 35,11,current_third_backup,2 35,12,num_alive_replicas,2 35,13,num_dead_replicas,2 35,14,num_lcp_replicas,2 36,0,node_id,2 36,1,table_id,2 36,2,fragment_id,2 36,3,initial_gci,2 36,4,replica_node_id,2 36,5,is_lcp_ongoing,2 36,6,num_crashed_replicas,2 36,7,last_max_gci_started,2 36,8,last_max_gci_completed,2 36,9,last_lcp_id,2 36,10,prev_lcp_id,2 36,11,prev_max_gci_started,2 36,12,prev_max_gci_completed,2 36,13,last_create_gci,2 36,14,last_replica_gci,2 36,15,is_replica_alive,2 37,0,node_id,2 37,1,table_id,2 37,2,logged_table,2 37,3,row_contains_gci,2 37,4,row_contains_checksum,2 37,5,temporary_table,2 37,6,force_var_part,2 37,7,read_backup,2 37,8,fully_replicated,2 37,9,extra_row_gci,2 37,10,extra_row_author,2 37,11,storage_type,2 37,12,hashmap_id,2 37,13,hashmap_version,2 37,14,table_version,2 37,15,fragment_type,2 37,16,partition_balance,2 37,17,create_gci,2 37,18,backup_locked,2 37,19,single_user_mode,2 38,0,reporting_node_id,2 38,1,node_id,2 38,2,node_type,2 38,3,node_version,1 38,4,process_id,2 38,5,angel_process_id,2 38,6,process_name,1 38,7,service_URI,1 39,0,reporting_node_id,2 39,1,node_id,2 39,2,node_type,2 39,3,node_hostname,1 --- END NDB$INFO.COLUMNS ---
Дополнительно. [N/A]
14003
DbinfoScanTable
Описание. Определено, но пока не применяется.
Пример вывода.
.....
Дополнительно. [N/A]
30000
RestoreRates
Описание. Восстановить процесс, чтобы напечатать резюме работы.
Пример вывода.
.....
Дополнительно. [N/A]
100000
BackupStatus
Описание. Статус продолжающейся резервной копии. Эквивалент
REPORT BackupStatus
.
Пример вывода.
.....
Дополнительно. [N/A]
100001
BackupMinWriteSpeed32
Описание. Устанавливает
MinDiskWriteSpeed
.
Пример вывода.
.....
Дополнительно. [N/A]
100002
BackupMaxWriteSpeed32
Описание. Устанавливает
MaxDiskWriteSpeed
.
Пример вывода.
.....
Дополнительно. [N/A]
100003
BackupMaxWriteSpeedOtherNodeRestart32
Описание. Устанавливает
MaxDiskWriteSpeedOtherNodeRestart
.
Пример вывода.
.....
Дополнительно. [N/A]
100004
BackupMinWriteSpeed64
Описание. Устанавливает
MinDiskWriteSpeed
,
передавая младшие значащие байты.
Пример вывода.
.....
Дополнительно. [N/A]
100005
BackupMaxWriteSpeed64
Описание. Устанавливает
MaxDiskWriteSpeed
,
передавая младшие значащие байты.
Пример вывода.
.....
Дополнительно. [N/A]
100006
BackupMaxWriteSpeedOtherNodeRestart64
Описание. Устанавливает
MaxDiskWriteSpeedOtherNodeRestart
, передавая младшие значащие байты.
Пример вывода.
.....
Дополнительно. [N/A]
100007
DumpStateOrd::BackupEncryptionRequired
Описание. В отладочных сборках отключает параметр узла данных
RequireEncryptedBackup
.
Пример вывода.
shell> ndb_mgm -e 'ALL DUMP 100007 0'
Sending dump signal with data:
0x000186a7 0x00000000
Sending dump signal with data:
0x000186a7 0x00000000
Дополнительно. Добавлено в NDB 8.0.22. Не имеет никакого эффекта,
если NDB
не был собран, используя
WITH_DEBUG
.
100999
_BackupMax
Описание. Определено, но пока не применяется.
Пример вывода.
.....
Дополнительно. [N/A]
101000
_TCMin
Описание. Определено, но пока не применяется.
Пример вывода.
.....
Дополнительно. [N/A]
101999
_TCMax
Описание. Определено, но пока не применяется.
Пример вывода.
.....
Дополнительно. [N/A]
102000
LQHLogFileInitStatus
Описание. Пишет отчет в журнал кластера о статусе инициализации файла журнала.
Пример вывода.
2019-08-01 23:10:24 [MgmtSrvr] INFO -- Node 5: Node 5: Log file initializtion completed 2019-08-01 23:10:24 [MgmtSrvr] INFO -- Node 6: Node 6: Log file initializtion completed
Дополнительно. [N/A]
102999
_LQHMax
Описание. Определено, но пока не применяется.
Пример вывода.
.....
Дополнительно. [N/A]
103000
SetSchedulerResponsiveness
Описание. Устанавливает параметр
SchedulerResponsiveness
в
значение от 0 до 10 включительно.
Пример вывода.
ndb_mgm> ALL DUMP 103000
Sending dump signal with data:
0x00019258
Sending dump signal with data:
0x00019258
dump 103000 X, where X is between 0 and 10 to set transactional priority
ndb_mgm> ALL DUMP 103000 50
Sending dump signal with data:
0x00019258 0x00000032
Sending dump signal with data:
0x00019258 0x00000032
Trying to set SchedulerResponsiveness outside 0-10
ndb_mgm> ALL DUMP 103000 5
Sending dump signal with data:
0x00019258 0x00000005
Sending dump signal with data:
0x00019258 0x00000005
Setting SchedulerResponsiveness to 5
Дополнительно. [N/A]
103001
EnableEventLoggerDebug
Описание. Позволяет уровень отладки в журнале узла.
Пример вывода.
2019-08-02 07:32:46 [ndbd] INFO -- Enable Debug level in node log
Дополнительно. Эквивалентно
node_id NODELOG DEBUG ON
.
103002
DisableEventLoggerDebug
Описание. ...
Пример вывода.
.....
Дополнительно. Эквивалентно
node_id NODELOG DEBUG OFF
.
104000
SetSchedulerSpinTimerAll
Описание. DUMP 104000 spintime
устанавливает время ротации для всех потоков в spintime микросекунд.
Дополнительно. Добавлено в NDB 8.0.20.
104001
SetSchedulerSpinTimerThread
Описание. DUMP 104001 thread spintime
устанавливает время ротации для потока номер thread в spintime микросекунд.
Дополнительно. Добавлено в NDB 8.0.20.
104002
SetAllowedSpinOverhead
Описание. Устанавливает, используя DUMP
104002 overhead
, где overhead в диапазоне от 0 до 10000 включительно.
Это используется, чтобы решить, какое число единиц процессорного времени
позволило получать 1 единицу времени ожидания, согласно
формуле, показанной здесь:
[time allowed] = 1.3 + (overhead / 100)
Это означает что overhead = 0 дает результат в в 1.3 единицы процессорного времени, и что значение по умолчанию overhead = 70 дает результат в 1.3 + 70/100 = 2 единицы процессорного времени.
В большинстве случаев вместо того, чтобы напрямую установить
SetAllowedSpinOverhead
, используется эта команда
DUMP
, достаточно позволить ее значению быть
определенным одним из предопределенных значений для параметра
SpinMethod
узлав данных.
Дополнительно. Добавлено в NDB 8.0.20.
104003
SetSpintimePerCall
Описание. DUMP 104003 timepercall
устанавливает время для ротации в timepercall наносекунд с диапазоном
300-8000 включительно. Значение по умолчанию
составляет 1000 наносекунд (1 микросекунда).
Дополнительно. Добавлено в NDB 8.0.20.
104004
EnableAdaptiveSpinning
Описание. DUMP 104004 enable
, где
enable 1 или 0. Использование 0 отключает адаптивную ротацию,
то есть, это вызывает ротацию, не проверяя использование ресурсов CPU,
которая является той же самой статической ротацией, используемой
NDB
в прошлом.
Предоставление возможности адаптивной ротации означает, что параметры
настройки таймеров проверяются только чтобы видеть, установлен ли таймер в 0.
Установка таймера вращения к 0 (использованием
SchedulerSpinTimer
или
компонента spintime
для
ThreadConfig
)
значит, что ротация дезактивирована полностью.
Адаптивная ротация начинается без ротации и проверок на ротацию после 60 микросекунд, увеличивается, уменьшается или отключается таймер для каждого потока блока независимо от любых других.
В большинстве случаев вместо того, чтобы позволить или отключить
адаптивную ротацию непосредственно, используя команду
DUMP
, достаточно (и более удобно) сделать
это, устанавливая параметр настройки узла данных
SpinMethod
в файле
config.ini
.
Дополнительно. Добавлено в NDB 8.0.20.