3 Actualización de la base de datos a claves primarias

Descripción general

Esta sección proporciona instrucciones para actualizar manualmente las tablas en instalaciones existentes a claves primarias.

Actualizar a claves primarias optimiza cómo se indexan y acceden los datos, lo que puede acelerar las consultas y ahorrar espacio. También mejora la gestión y sincronización de datos en configuraciones en clúster, ayudando con la escalabilidad y asegurando que el sistema siga siendo fiable incluso si algunos servidores fallan.

Las instrucciones proporcionadas en esta página están diseñadas para usuarios avanzados y pueden necesitar ser ajustadas para su configuración específica. Actualizar a claves primarias puede llevar mucho tiempo y requerir muchos recursos. Asegúrese de que haya suficiente espacio libre en disco; dependiendo del tamaño de su base de datos y los datos almacenados, el proceso puede requerir hasta 2,5 veces el espacio que actualmente utilizan las tablas de histórico.

Las claves primarias se utilizan para todas las tablas en instalaciones nuevas desde Zabbix 6.0.

No existe una actualización automática de la base de datos a claves primarias; sin embargo, las instalaciones existentes pueden actualizarse manualmente después de actualizar el servidor Zabbix a la versión 6.0 o posterior.

Desde Zabbix 7.0, actualizar las tablas a claves primarias también actualiza las tablas para usar tipos de datos de doble precisión.

Si tiene Zabbix 7.0 (o posterior), las tablas ya usan doble precisión. Sin embargo, las instrucciones de esta página aún pueden seguirse para actualizar las tablas a claves primarias sin afectar a las tablas que ya usan doble precisión.

Si tiene Zabbix 6.4 (o anterior), considere actualizar primero las tablas a doble precisión. Para más información, consulte Actualización a valores numéricos de rango extendido en la documentación de Zabbix 7.0.

Las instrucciones están disponibles para:

Notas importantes

Para realizar la actualización de la base de datos:

  1. Detenga el servidor Zabbix.

Se recomienda encarecidamente detener el servidor Zabbix durante el tiempo de la actualización. Sin embargo, si es absolutamente necesario, puede realizar la actualización mientras el servidor está en funcionamiento (solo para MySQL, MariaDB y PostgreSQL sin TimescaleDB).

  1. Realice una copia de seguridad de su base de datos.
  2. Instale el paquete zabbix-sql-scripts más reciente compatible con su versión de Zabbix (por ejemplo, para RHEL: dnf install zabbix-sql-scripts).
  3. Ejecute los scripts para su base de datos.
  4. Inicie el servidor Zabbix.

Ejecute los scripts solo para la base de datos del servidor. El proxy no se beneficiará de esta actualización.

Si la base de datos utiliza particiones, contacte al administrador de la base de datos o al Soporte de Zabbix para obtener ayuda.

Los archivos CSV pueden eliminarse después de una actualización exitosa a claves primarias.

Opcionalmente, la interfaz web de Zabbix puede cambiarse a modo de mantenimiento.

MySQL

La exportación e importación deben realizarse en tmux/screen para asegurarse de que la sesión no se interrumpa.

Consulte también: Notas importantes

MySQL 8.4+ con mysqlsh

Este método se puede usar con un server de Zabbix en ejecución, pero se recomienda detener el server durante el tiempo de la actualización. MySQL Shell (mysqlsh) debe estar instalado y poder conectarse a la base de datos.

  • Inicie sesión en la consola de MySQL como root (recomendado) o como cualquier usuario con privilegios FILE.

  • Inicie MySQL con la variable local_infile habilitada.

  • Cambie el nombre de las tablas antiguas y cree las nuevas ejecutando history_upgrade_prepare.sql.

mysql -uzabbix -p<password> zabbix < /usr/share/zabbix/sql-scripts/mysql/option-patches/history_upgrade_prepare.sql
  • Exporte e importe los datos.

Conéctese mediante mysqlsh. Si usa una conexión por socket, puede ser necesario especificar la ruta.

sudo mysqlsh -uroot -S /run/mysqld/mysqld.sock --no-password -Dzabbix

Cambie al modo JavaScript usando:

\js

Luego ejecute el código siguiente (CSVPATH se puede cambiar según sea necesario):

CSVPATH="/var/lib/mysql-files";

util.exportTable("history_old", CSVPATH + "/history.csv", { dialect: "csv" });
util.importTable(CSVPATH + "/history.csv", {"dialect": "csv", "table": "history" });

util.exportTable("history_uint_old", CSVPATH + "/history_uint.csv", { dialect: "csv" });
util.importTable(CSVPATH + "/history_uint.csv", {"dialect": "csv", "table": "history_uint" });

util.exportTable("history_str_old", CSVPATH + "/history_str.csv", { dialect: "csv" });
util.importTable(CSVPATH + "/history_str.csv", {"dialect": "csv", "table": "history_str" });

util.exportTable("history_log_old", CSVPATH + "/history_log.csv", { dialect: "csv" });
util.importTable(CSVPATH + "/history_log.csv", {"dialect": "csv", "table": "history_log" });

util.exportTable("history_text_old", CSVPATH + "/history_text.csv", { dialect: "csv" });
util.importTable(CSVPATH + "/history_text.csv", {"dialect": "csv", "table": "history_text" });

Si recibe el mensaje "JavaScript is not supported", su instalación de MySQL Shell no tiene compatibilidad con JS. En ese caso, instale el paquete oficial de MySQL Shell de Oracle (o compílelo desde el código fuente) para que el modo JavaScript esté habilitado.

MariaDB/MySQL 8.4+ sin mysqlsh

Este método de actualización lleva más tiempo y solo debe usarse si no es posible una actualización con mysqlsh.

Actualización de tablas
  • Inicie sesión en la consola de MySQL como root (recomendado) o como cualquier usuario con privilegios FILE.

  • Si realiza la migración con un server Zabbix en ejecución, inicie MySQL con la variable local_infile habilitada.

  • Cambie el nombre de las tablas antiguas y cree las nuevas ejecutando history_upgrade_prepare.sql:

mysql -uzabbix -p<password> zabbix < /usr/share/zabbix/sql-scripts/mysql/option-patches/history_upgrade_prepare.sql
Migración con el server detenido

max_execution_time (en MySQL) o max_statement_time (en MariaDB) debe deshabilitarse antes de migrar los datos para evitar un tiempo de espera durante la migración.

Para MySQL:

SET @@max_execution_time=0;

Para MariaDB:

SET @@max_statement_time=0;
INSERT IGNORE INTO history SELECT * FROM history_old;
INSERT IGNORE INTO history_uint SELECT * FROM history_uint_old;
INSERT IGNORE INTO history_str SELECT * FROM history_str_old;
INSERT IGNORE INTO history_log SELECT * FROM history_log_old;
INSERT IGNORE INTO history_text SELECT * FROM history_text_old;

Siga las instrucciones posteriores a la migración para eliminar las tablas antiguas.

Migración con el server en ejecución

Compruebe para qué rutas está habilitada la importación/exportación:

mysql> SELECT @@secure_file_priv;
+-----------------------+
| @@secure_file_priv    |
+-----------------------+
| /var/lib/mysql-files/ |
+-----------------------+

Si el valor de secure_file_priv es una ruta a un directorio, la exportación/importación se realizará para los archivos de ese directorio. En este caso, edite las rutas a los archivos en las consultas en consecuencia o establezca el valor de secure_file_priv en una cadena vacía durante el tiempo de actualización.

Si el valor de secure_file_priv está vacío, la exportación/importación puede realizarse desde cualquier ubicación.

Si el valor de secure_file_priv es NULL, establézcalo en la ruta que contiene los datos exportados de la tabla ('/var/lib/mysql-files/' en el ejemplo anterior).

Para obtener más información, consulte la documentación de MySQL o la documentación de MariaDB.

max_execution_time (en MySQL) o max_statement_time (en MariaDB) debe deshabilitarse antes de exportar los datos para evitar un tiempo de espera durante la exportación.

Para MySQL:

SET @@max_execution_time=0;

Para MariaDB:

SET @@max_statement_time=0;
SELECT * INTO OUTFILE '/var/lib/mysql-files/history.csv' FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n' FROM history_old;
LOAD DATA INFILE '/var/lib/mysql-files/history.csv' IGNORE INTO TABLE history FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n';

SELECT * INTO OUTFILE '/var/lib/mysql-files/history_uint.csv' FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n' FROM history_uint_old;
LOAD DATA INFILE '/var/lib/mysql-files/history_uint.csv' IGNORE INTO TABLE history_uint FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n';

SELECT * INTO OUTFILE '/var/lib/mysql-files/history_str.csv' FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n' FROM history_str_old;
LOAD DATA INFILE '/var/lib/mysql-files/history_str.csv' IGNORE INTO TABLE history_str FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n';

SELECT * INTO OUTFILE '/var/lib/mysql-files/history_log.csv' FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n' FROM history_log_old;
LOAD DATA INFILE '/var/lib/mysql-files/history_log.csv' IGNORE INTO TABLE history_log FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n';

SELECT * INTO OUTFILE '/var/lib/mysql-files/history_text.csv' FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n' FROM history_text_old;
LOAD DATA INFILE '/var/lib/mysql-files/history_text.csv' IGNORE INTO TABLE history_text FIELDS TERMINATED BY ',' ESCAPED BY '"' LINES TERMINATED BY '\n';

Siga las instrucciones posteriores a la migración para eliminar las tablas antiguas.

PostgreSQL

La exportación y la importación deben realizarse en tmux/screen para garantizar que la sesión no se interrumpa. Para instalaciones con TimescaleDB, omita esta sección y continúe con PostgreSQL + TimescaleDB.

Véase también: Notas importantes

Actualización de tablas

  • Renombre las tablas usando history_upgrade_prepare.sql:
sudo -u zabbix psql zabbix < /usr/share/zabbix/sql-scripts/postgresql/option-patches/history_upgrade_prepare.sql

Migración con el server detenido

  • Exporte el historial actual, impórtelo en la tabla temporal y luego inserte los datos en las nuevas tablas ignorando los duplicados:
INSERT INTO history SELECT * FROM history_old ON CONFLICT (itemid,clock,ns) DO NOTHING;

INSERT INTO history_uint SELECT * FROM history_uint_old ON CONFLICT (itemid,clock,ns) DO NOTHING;

INSERT INTO history_str SELECT * FROM history_str_old ON CONFLICT (itemid,clock,ns) DO NOTHING;

INSERT INTO history_log SELECT * FROM history_log_old ON CONFLICT (itemid,clock,ns) DO NOTHING;

INSERT INTO history_text SELECT * FROM history_text_old ON CONFLICT (itemid,clock,ns) DO NOTHING;

Consulte consejos para mejorar el rendimiento de INSERT: PostgreSQL: Bulk Loading Huge Amounts of Data, Checkpoint Distance and Amount of WAL.

Migración con server en ejecución

  • Exporte el historial actual, impórtelo en la tabla temporal y luego inserte los datos en las nuevas tablas mientras ignora los duplicados:
\copy history_old TO '/tmp/history.csv' DELIMITER ',' CSV
CREATE TEMP TABLE temp_history (
    itemid                   bigint                                    NOT NULL,
    clock                    integer         DEFAULT '0'               NOT NULL,
    value                    DOUBLE PRECISION DEFAULT '0.0000'          NOT NULL,
    ns                       integer         DEFAULT '0'               NOT NULL
);
\copy temp_history FROM '/tmp/history.csv' DELIMITER ',' CSV
INSERT INTO history SELECT * FROM temp_history ON CONFLICT (itemid,clock,ns) DO NOTHING;

\copy history_uint_old TO '/tmp/history_uint.csv' DELIMITER ',' CSV
CREATE TEMP TABLE temp_history_uint (
    itemid                   bigint                                    NOT NULL,
    clock                    integer         DEFAULT '0'               NOT NULL,
    value                    numeric(20)     DEFAULT '0'               NOT NULL,
    ns                       integer         DEFAULT '0'               NOT NULL
);
\copy temp_history_uint FROM '/tmp/history_uint.csv' DELIMITER ',' CSV
INSERT INTO history_uint SELECT * FROM temp_history_uint ON CONFLICT (itemid,clock,ns) DO NOTHING;

\copy history_str_old TO '/tmp/history_str.csv' DELIMITER ',' CSV
CREATE TEMP TABLE temp_history_str (
    itemid                   bigint                                    NOT NULL,
    clock                    integer         DEFAULT '0'               NOT NULL,
    value                    varchar(255)    DEFAULT ''                NOT NULL,
    ns                       integer         DEFAULT '0'               NOT NULL
);
\copy temp_history_str FROM '/tmp/history_str.csv' DELIMITER ',' CSV
INSERT INTO history_str (itemid,clock,value,ns) SELECT * FROM temp_history_str ON CONFLICT (itemid,clock,ns) DO NOTHING;

\copy history_log_old TO '/tmp/history_log.csv' DELIMITER ',' CSV
CREATE TEMP TABLE temp_history_log (
    itemid                   bigint                                    NOT NULL,
    clock                    integer         DEFAULT '0'               NOT NULL,
    timestamp                integer         DEFAULT '0'               NOT NULL,
    source                   varchar(64)     DEFAULT ''                NOT NULL,
    severity                 integer         DEFAULT '0'               NOT NULL,
    value                    text            DEFAULT ''                NOT NULL,
    logeventid               integer         DEFAULT '0'               NOT NULL,
    ns                       integer         DEFAULT '0'               NOT NULL
);
\copy temp_history_log FROM '/tmp/history_log.csv' DELIMITER ',' CSV
INSERT INTO history_log SELECT * FROM temp_history_log ON CONFLICT (itemid,clock,ns) DO NOTHING;

\copy history_text_old TO '/tmp/history_text.csv' DELIMITER ',' CSV
CREATE TEMP TABLE temp_history_text (
    itemid                   bigint                                    NOT NULL,
    clock                    integer         DEFAULT '0'               NOT NULL,
    value                    text            DEFAULT ''                NOT NULL,
    ns                       integer         DEFAULT '0'               NOT NULL
);
\copy temp_history_text FROM '/tmp/history_text.csv' DELIMITER ',' CSV
INSERT INTO history_text SELECT * FROM temp_history_text ON CONFLICT (itemid,clock,ns) DO NOTHING;

PostgreSQL + TimescaleDB

La exportación y la importación deben realizarse en tmux/screen para garantizar que la sesión no se interrumpa. Zabbix server debe estar detenido durante la actualización.

Véase también: Notas importantes

  • Renombre las tablas usando history_upgrade_prepare.sql.

    • Si la compresión está habilitada (en la instalación predeterminada), ejecute el script desde /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/with-compression:
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade_prepare.sql | sudo -u zabbix psql zabbix
    • Si la compresión está deshabilitada, ejecute el script desde /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/without-compression:
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade_prepare.sql | sudo -u zabbix psql zabbix
  • Ejecute los scripts de migración de hypertable de TimescaleDB según la configuración de compresión:

    • Si la compresión está habilitada (en la instalación predeterminada), ejecute los scripts desde /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/with-compression:
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade.sql | sudo -u zabbix psql zabbix
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade_uint.sql | sudo -u zabbix psql zabbix
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade_log.sql | sudo -u zabbix psql zabbix
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade_str.sql | sudo -u zabbix psql zabbix
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/with-compression/history_upgrade_text.sql | sudo -u zabbix psql zabbix
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/with-compression/trends_upgrade.sql | sudo -u zabbix psql zabbix
    • Si la compresión está deshabilitada, ejecute los scripts desde /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/without-compression:
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade.sql | sudo -u zabbix psql zabbix
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade_uint.sql | sudo -u zabbix psql zabbix
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade_log.sql | sudo -u zabbix psql zabbix
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade_str.sql | sudo -u zabbix psql zabbix
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/without-compression/history_upgrade_text.sql | sudo -u zabbix psql zabbix
      cat /usr/share/zabbix/sql-scripts/postgresql/timescaledb/option-patches/without-compression/trends_upgrade.sql | sudo -u zabbix psql zabbix

Véase también: Consejos para mejorar el rendimiento de INSERT.

Post-migración

Para todas las bases de datos, una vez completada la migración, haga lo siguiente:

  • Verifique que todo funcione como se espera.

  • Elimine las tablas antiguas:

DROP TABLE history_old;
DROP TABLE history_uint_old;
DROP TABLE history_str_old;
DROP TABLE history_log_old;
DROP TABLE history_text_old;
  • Para TimescaleDB, elimine también la siguiente tabla antigua:
DROP TABLE trends_old;

Véase también