DB4AI是指利用数据库的能力驱动AI任务,实现数据存储、技术栈的同构。通过在数据库内集成AI算法,令openGauss具备数据库原生AI计算引擎、模型管理、AI算子、AI原生执行计划的能力,为用户提供普惠AI技术。不同于传统的AI建模流程,DB4AI“一站式”建模可以解决数据在各平台的反复流转问题,同时简化开发流程,并可通过数据库规划出最优执行路径,让开发者更专注于具体业务和模型的调优上,具备同类产品不具备的易用性与性能优势。
一、原生DB4AI引擎
二、全流程AI
一、原生DB4AI引擎
openGauss当前版本支持了原生DB4AI能力,通过引入原生AI算子,简化操作流程,充分利用数据库优化器、执行器的优化与执行能力,获得高性能的数据库内模型训练能力。更简化的模型训练与预测流程、更高的性能表现,让开发者在更短时间内能更专注于模型的调优与数据分析上,而避免了碎片化的技术栈与冗余的代码实现。
关键字解析
表 1 DB4AI语法及关键字
| 名称 | 描述 | |
|---|---|---|
| 语法 | CREATE MODEL | 创建模型并进行训练,同时保存模型。 | 
| PREDICT BY | 利用已有模型进行推断。 | |
| DROP MODEL | 删除模型。 | |
| 关键字 | TARGET | 训练/推断任务的目标列名。 | 
| FEATURES | 训练/推断任务的数据特征列名。 | |
| MODEL | 训练任务的模型名称。 | 
使用指导
- 
本版本支持的算法概述。 当前版本的DB4AI新增支持算法如下: 表 2 支持算法 优化算法 算法 GD logistic_regression linear_regression svm_classification PCA multiclass Kmeans kmeans xgboost xgboost_regression_logistic xgboost_binary_logistic xgboost_regression_squarederror xgboost_regression_gamma 
- 
模型训练语法说明。 - 
CREATE MODEL 使用“CREATE MODEL”语句可以进行模型的创建和训练。模型训练SQL语句,选用公开数据集鸢尾花数据集iris。 
- 
以multiclass为例,训练一个模型。从tb_iris训练集中指定sepal_length, sepal_width,petal_length,petal_widt为特征列,使用multiclass算法,创建并保存模型iris_classification_model。 openGauss=# CREATE MODEL iris_classification_model USING xgboost_regression_logistic FEATURES sepal_length, sepal_width,petal_length,petal_width TARGET target_type < 2 FROM tb_iris_1 WITH nthread=4, max_depth=8; MODEL CREATED. PROCESSED 1上述命令中: - “CREATE MODEL”语句用于模型的训练和保存。
- USING关键字指定算法名称。
- FEATURES用于指定训练模模型的特征,需根据训练数据表的列名添加。
- TARGET指定模型的训练目标,它可以是训练所需数据表的列名,也可以是一个表达式,例如: price > 10000。
- 
WITH用于指定训练模型时的超参数。当超参未被用户进行设置的时候,框架会使用默认数值。 针对不同的算子,框架支持不同的超参组合: 表 3 算子支持的超参 算子 超参 GD (logistic_regression、linear_regression、svm_classification) optimizer(char); verbose(bool); max_iterations(int); max_seconds(double); batch_size(int); learning_rate(double); decay(double); tolerance(double) 其中,SVM限定超参lambda(double) Kmeans max_iterations(int); num_centroids(int); tolerance(double); batch_size(int); num_features(int); distance_function(char); seeding_function(char); verbose(int);seed(int) GD(pca) batch_size(int);max_iterations(int);max_seconds(int);tolerance(float8);verbose(bool);number_components(int);seed(int) GD(multiclass) classifier(char) 注意:multiclass的其他超参种类取决于选择的分类器中类 xgboost_regression_logistic、xgboost_binary_logistic、xgboost_regression_squarederror、xgboost_regression_gamma batch_size(int);booster(char);tree_method(char);eval_metric(char*);seed(int);nthread(int);max_depth(int);gamma(float8);eta(float8);min_child_weight(int);verbosity(int) 当前各个超参数设置的默认值和取值范围如下: 表 4 超参的默认值以及取值范围 算子 超参(默认值) 取值范围 超参描述 GD: logistic_regression、linear_regression、svm_classification、pca optimizer = gd(梯度下降法) gd/ngd(自然梯度下降) 优化器 verbose = false T/F 日志显示 max_iterations = 100 (0, 10000] 最大迭代次数 max_seconds = 0 (不对运行时长设限制) [0,INT_MAX_VALUE] 运行时长 batch_size = 1000 (0, 1048575] 一次训练所选取的样本数 learning_rate = 0.8 (0, DOUBLE_MAX_VALUE] 学习率 decay = 0.95 (0, DOUBLE_MAX_VALUE] 权值衰减率 tolerance = 0.0005 (0, DOUBLE_MAX_VALUE] 公差 seed = 0(对seed取随机值) [0, INT_MAX_VALUE] 种子 just for linear、SVM:kernel = “linear” linear/gaussian/polynomial 核函数 just for linear、SVM:components = MAX(2*features, 128) [0, INT_MAX_VALUE] 高维空间维数 just for linear、SVM:gamma = 0.5 (0, DOUBLE_MAX_VALUE] gaussian核函数参数 just for linear、SVM:degree = 2 [2, 9] polynomial核函数参数 just for linear、SVM:coef0 = 1.0 [0, DOUBLE_MAX_VALUE] polynomial核函数的参数 just for SVM:lambda = 0.01 (0, DOUBLE_MAX_VALUE) 正则化参数 just for pca: number_components (0,INT_MAX_VALUE] 降维的目标维度 GD: multiclass classifier=“svm_classification” svm_classification\logistic_regression 多分类任务的分类器 Kmeans max_iterations = 10 [1, 10000] 最大迭代次数 num_centroids = 10 [1, 1000000] 簇的数目 tolerance = 0.00001 (0,1] 中心点误差 batch_size = 10 [1,1048575] 一次训练所选取的样本数 num_features = 2 [1, INT_MAX_VALUE] 输入样本特征数 distance_function = “L2_Squared” L1\L2\L2_Squared\Linf 正则化方法 seeding_function = “Random++” “Random++”\“KMeans||” 初始化种子点方法 verbose = 0U { 0, 1, 2 } 冗长模式 seed = 0U [0, INT_MAX_VALUE] 种子 xgboost: xgboost_regression_logistic、 xgboost_binary_logistic、 xgboost_regression_gamma、xgboost_regression_squarederror n_iter=10 (0, 10000] 迭代次数 batch_size=10000 (0, 1048575] 一次训练所选取的样本数 booster=“gbtree” gbtree\gblinear\dart booster种类 tree_method=“auto” auto\exact\approx\hist\gpu_hist 注意:gpu_hist参数需要相应的库GPU版本,否则DB4AI平台不支持该值。 树构建算法 eval_metric=“rmse” rmse\rmsle\map\mae\auc\aucpr 验证数据的评估指标 seed=0 [0, 100] 种子 nthread=1 (0, MAX_MEMORY_LIMIT] 并发量 max_depth=5 (0, MAX_MEMORY_LIMIT] 树的最大深度,该超参仅对树型booster生效。 gamma=0.0 [0, 1] 叶节点上进行进一步分区所需的最小损失减少 eta=0.3 [0, 1] 更新中使用的步长收缩,以防止过拟合 min_child_weight=1 [0, INT_MAX_VALUE] 孩子节点中所需的实例权重的最小总和 verbosity=1 0 (silent)\1 (warning)\2 (info)\3 (debug) 打印信息的详细程度 MAX_MEMORY_LIMIT = 最大内存加载的元组数量 GS_MAX_COLS = 数据库单表最大属性数量 
 
- 
模型保存成功,则返回创建成功信息: MODEL CREATED. PROCESSED x
 
- 
- 
查看模型信息。 当训练完成后模型会被存储到系统表gs_model_warehouse中。系统表gs_model_warehouse可以查看到关于模型本身和训练过程的相关信息。 关于模型的详细描述信息以二进制的形式存储在系统表中,用户可用过使用函数gs_explain_model完成对模型的查看,语句如下: openGauss=# select * from gs_explain_model("iris_classification_model"); DB4AI MODEL ------------------------------------------------------------- Name: iris_classification_model Algorithm: xgboost_regression_logistic Query: CREATE MODEL iris_classification_model USING xgboost_regression_logistic FEATURES sepal_length, sepal_width,petal_length,petal_width TARGET target_type < 2 FROM tb_iris_1 WITH nthread=4, max_depth=8; Return type: Float64 Pre-processing time: 0.000000 Execution time: 0.001443 Processed tuples: 78 Discarded tuples: 0 n_iter: 10 batch_size: 10000 max_depth: 8 min_child_weight: 1 gamma: 0.0000000000 eta: 0.3000000000 nthread: 4 verbosity: 1 seed: 0 booster: gbtree tree_method: auto eval_metric: rmse rmse: 0.2648450136 model size: 4613
- 
利用已存在的模型做推断任务。 使用“SELECT”和“PREDICT BY”关键字利用已有模型完成推断任务。 查询语法:SELECT…PREDICT BY…(FEATURES…)…FROM…; openGauss=# SELECT id, PREDICT BY iris_classification (FEATURES sepal_length,sepal_width,petal_length,petal_width) as "PREDICT" FROM tb_iris limit 3; id | PREDICT -----+--------- 84 | 2 85 | 0 86 | 0 (3 rows)针对相同的推断任务,同一个模型的结果是大致稳定的。且基于相同的超参数和训练集训练的模型也具有稳定性,同时AI模型训练存在随机成分(每个batch的数据分布、随机梯度下降),所以不同的模型间的计算表现、结果允许存在小的差别。 
- 
查看执行计划。 使用explain语句可对“CREATE MODEL”和“PREDICT BY”的模型训练或预测过程中的执行计划进行分析。Explain关键字后可直接拼接CREATE MODEL/ PREDICT BY语句(子句),也可接可选的参数,支持的参数如下: 表 5 EXPLAIN支持的参数 参数名 描述 ANALYZE 布尔型变量,追加运行时间、循环次数等描述信息 VERBOSE 布尔型变量,控制训练的运行信息是否输出到客户端 COSTS 布尔型变量 CPU 布尔型变量 DETAIL 布尔型变量,不可用。 NODES 布尔型变量,不可用 NUM_NODES 布尔型变量,不可用 BUFFERS 布尔型变量 TIMING 布尔型变量 PLAN 布尔型变量 FORMAT 可选格式类型:TEXT / XML / JSON / YAML 示例: openGauss=# Explain CREATE MODEL patient_logisitic_regression USING logistic_regression FEATURES second_attack, treatment TARGET trait_anxiety > 50 FROM patients WITH batch_size=10, learning_rate = 0.05; QUERY PLAN ------------------------------------------------------------------------- Train Model - logistic_regression (cost=0.00..0.00 rows=0 width=0) -> Materialize (cost=0.00..41.08 rows=1776 width=12) -> Seq Scan on patients (cost=0.00..32.20 rows=1776 width=12) (3 rows)
- 
异常场景。 - 
训练阶段。 - 
场景一:当超参数的设置超出取值范围,模型训练失败,返回ERROR,并提示错误,例如: openGauss=# CREATE MODEL patient_linear_regression USING linear_regression FEATURES second_attack,treatment TARGET trait_anxiety FROM patients WITH optimizer='aa'; ERROR: Invalid hyperparameter value for optimizer. Valid values are: gd, ngd.
- 
场景二:当模型名称已存在,模型保存失败,返回ERROR,并提示错误原因,例如: openGauss=# CREATE MODEL patient_linear_regression USING linear_regression FEATURES second_attack,treatment TARGET trait_anxiety FROM patients; ERROR: The model name "patient_linear_regression" already exists in gs_model_warehouse.
- 
场景三:FEATURE或者TARGETS列是*,返回ERROR,并提示错误原因,例如: openGauss=# CREATE MODEL patient_linear_regression USING linear_regression FEATURES * TARGET trait_anxiety FROM patients; ERROR: FEATURES clause cannot be * ----------------------------------------------------------------------------------------------------------------------- openGauss=# CREATE MODEL patient_linear_regression USING linear_regression FEATURES second_attack,treatment TARGET * FROM patients; ERROR: TARGET clause cannot be *
- 
场景四:对于无监督学习方法使用TARGET关键字,或者在监督学习方法中不适用TARGET关键字,均会返回ERROR,并提示错误原因,例如: openGauss=# CREATE MODEL patient_linear_regression USING linear_regression FEATURES second_attack,treatment FROM patients; ERROR: Supervised ML algorithms require TARGET clause ----------------------------------------------------------------------------------------------------------------------------- CREATE MODEL patient_linear_regression USING linear_regression TARGET trait_anxiety FROM patients; ERROR: Supervised ML algorithms require FEATURES clause
- 
场景五:当进行分类任务时TARGET列的分类只有1种情况,会返回ERROR,并提示错误原因,例如: openGauss=# CREATE MODEL ecoli_svmc USING multiclass FEATURES f1, f2, f3, f4, f5, f6, f7 TARGET cat FROM (SELECT * FROM db4ai_ecoli WHERE cat='cp'); ERROR: At least two categories are needed
- 
场景六:DB4AI在训练过程中会过滤掉含有空值的数据,当参与训练的模型数据为空的时候,会返回ERROR,并提示错误原因,例如: openGauss=# create model iris_classification_model using xgboost_regression_logistic features message_regular target error_level from error_code; ERROR: Training data is empty, please check the input data.
- 
场景七:DB4AI的算法对于支持的数据类型是有限制的。当数据类型不在支持白名单中,会返回ERROR,并提示非法的oid,可通过pg_type查看OID确定非法的数据类型,例如: openGauss=# CREATE MODEL ecoli_svmc USING multiclass FEATURES f1, f2, f3, f4, f5, f6, f7, cat TARGET cat FROM db4ai_ecoli ; ERROR: Oid type 1043 not yet supported
- 
场景八:当GUC参数statement_timeout设置了时长,训练超时执行的语句将被终止:执行CREATE MODEL语句。训练集的大小、训练轮数(iteration)、提前终止条件(tolerance、max_seconds)、并行线程数(nthread)等参数都会影响训练时长。当时长超过数据库限制,语句被终止模型训练失败。 
 
- 
- 
模型解析。 - 
场景九:当模型名在系统表中查找不到,数据库会报ERROR,例如: openGauss=# select gs_explain_model("ecoli_svmc"); ERROR: column "ecoli_svmc" does not exist
 
- 
- 
推断阶段。 - 
场景十:当模型名在系统表中查找不到,数据库会报ERROR,例如: openGauss=# select id, PREDICT BY patient_logistic_regression (FEATURES second_attack,treatment) FROM patients; ERROR: There is no model called "patient_logistic_regression".
- 
场景十一:当做推断任务FEATURES的数据维度和数据类型与训练集存在不一致,将报ERROR,并提示错误原因,例如: openGauss=# select id, PREDICT BY patient_linear_regression (FEATURES second_attack) FROM patients; ERROR: Invalid number of features for prediction, provided 1, expected 2 CONTEXT: referenced column: patient_linear_regression_pred ------------------------------------------------------------------------------------------------------------------------------------- openGauss=# select id, PREDICT BY patient_linear_regression (FEATURES 1,second_attack,treatment) FROM patients; ERROR: Invalid number of features for prediction, provided 3, expected 2 CONTEXT: referenced column: patient_linear_regression_pre
 
- 
 
- 
说明: DB4AI特性需要读取数据参与计算,不适用于密态数据库等情况。
二、全流程AI
传统的AI任务往往具有多个流程,如数据的收集过程包括数据的采集、数据清洗、数据存储等,在算法的训练过程中又包括数据的预处理、训练、模型的保存与管理等。其中,对于模型的训练过程,又包括超参数的调优过程。诸如此类机器学习模型生命周期的全过程,可大量集成于数据库内部。在距离数据存储侧最近处进行模型的训练、管理、优化等流程,在数据库端提供SQL语句式的开箱即用的AI全声明周期管理的功能,称之为全流程AI.
openGauss实现了部分全流程AI的功能,将在本章节中详细展开。
- 
PLPython Fenced模式 
- 
DB4AI-Snapshots数据版本管理 
①PLPython Fenced模式
在fenced模式中添加plpython非安全语言。在数据库编译时需要将python集成进数据库中,在configure阶段加入–with-python选项。同时也可指定安装plpython的python路径,添加选项–with-includes='/python-dir=path'。
在启动数据库之前配置GUC参数unix_socket_directory ,指定unix_socket进程间通讯的文件地址。用户需要提前在user-set-dir-path下创建文件夹,并将文件夹权限修改为可读可写可执行状态。
unix_socket_directory = '/user-set-dir-path'
配置完成,启动数据库。
将plpython加入数据库编译,并设置好GUC参数unix_socket_directory后,在启动数据库的过程中,自动创建fenced-Master进程。在数据库不进行python编译的情况下,fenced模式需要手动拉起master进程,在GUC参数设置完成后,输入创建master进程命令。
启动fenced-Master进程,命令为:
gaussdb --fenced -k /user-set-dir-path -D /user-set-dir-path &
完成fence模式配置,针对plpython-fenced UDF数据库将在fenced-worker进程中执行UDF计算。
使用指导
- 
创建extension - 
当编译的plpython为python2时: openGauss=# create extension plpythonu; CREATE EXTENSION
- 
当编译的plpython为python3时: openGauss=# create extension plpython3u; CREATE EXTENSION
 下面示例是以python2为例。 
- 
- 
创建plpython-fenced UDF openGauss=# create or replace function pymax(a int, b int) openGauss-# returns INT openGauss-# language plpythonu fenced openGauss-# as $$ openGauss$# import numpy openGauss$# if a > b: openGauss$# return a; openGauss$# else: openGauss$# return b; openGauss$# $$; CREATE FUNCTION
- 
查看UDF信息 openGauss=# select * from pg_proc where proname='pymax'; -[ RECORD 1 ]----+-------------- proname | pymax pronamespace | 2200 proowner | 10 prolang | 16388 procost | 100 prorows | 0 provariadic | 0 protransform | - proisagg | f proiswindow | f prosecdef | f proleakproof | f proisstrict | f proretset | f provolatile | v pronargs | 2 pronargdefaults | 0 prorettype | 23 proargtypes | 23 23 proallargtypes | proargmodes | proargnames | {a,b} proargdefaults | prosrc | | import numpy | if a > b: | return a; | else: | return b; | probin | proconfig | proacl | prodefaultargpos | fencedmode | t proshippable | f propackage | f prokind | f proargsrc |
- 
运行UDF - 
创建一个数据表: openGauss=# create table temp (a int ,b int) ; CREATE TABLE openGauss=# insert into temp values (1,2),(2,3),(3,4),(4,5),(5,6); INSERT 0 5
- 
运行UDF: openGauss=# select pymax(a,b) from temp; pymax ------- 2 3 4 5 6 (5 rows)
 
- 
②DB4AI-Snapshots数据版本管理
DB4AI-Snapshots是DB4AI模块用于管理数据集版本的功能。通过DB4ai-Snapshots组件,开发者可以简单、快速地进行特征筛选、类型转换等数据预处理操作,同时还可以像git一样对训练数据集进行版本控制。数据表快照创建成功后可以像视图一样进行使用,但是一经发布后,数据表快照便固化为不可变的静态数据,如需修改该数据表快照的内容,需要创建一个版本号不同的新数据表快照。
DB4AI-Snapshots的生命周期
DB4AI-Snapshots的状态包括published、archived以及purged。其中,published可以用于标记该DB4AI-Snapshots 已经发布,可以进行使用。archived表示当前 DB4AI-Snapshots 处于“存档期”,一般不进行新模型的训练,而是利用旧数据对新的模型进行验证。purged则是该DB4AI-Snapshots 已经被删除的状态,在数据库系统中无法再检索到。
需要注意的是快照管理功能是为了给用户提供统一的训练数据,不同团队成员可以使用给定的训练数据来重新训练机器学习模型,方便用户间协同。为此私有用户和三权分立状态(enableSeparationOfDuty=ON)等涉及不支持用户数据转写等情况将不支持Snapshot特性。
用户可以通过“CREATE SNAPSHOT”语句创建数据表快照,创建好的快照默认即为published状态。可以采用两种模式创建数据表快照,即为MSS以及CSS模式,它们可以通过GUC参数db4ai_snapshot_mode进行配置。对于MSS模式,它是采用物化算法进行实现的,存储了原始数据集的数据实体;CSS则是基于相对计算算法实现的,存储的是数据的增量信息。数据表快照的元信息存储在DB4AI的系统目录中。可以通过db4ai.snapshot 系统表查看到。
可以通过“ARCHIVE SNAPSHOT”语句将某一个数据表快照标记为archived状态,可以通过“PUBLISH SNAPSHOT”语句将其再度标记为published状态。标记数据表快照的状态,是为了帮助数据科学家进行团队合作使用的。
当一个数据表快照已经丧失存在价值时,可以通过“PURGE SNAPSHOT”语句删除它,以便永久删除其数据并恢复存储空间。
DB4AI-Snapshots使用指导
- 
创建表以及插入表数据。 数据库内存在已有的数据表,可根据该已有的数据表创建对应的数据表快照。为了后续演示,在此处新建一个名为 t1 的数据表,并向其中插入测试数据。 create table t1 (id int, name varchar); insert into t1 values (1, 'zhangsan'); insert into t1 values (2, 'lisi'); insert into t1 values (3, 'wangwu'); insert into t1 values (4, 'lisa'); insert into t1 values (5, 'jack');通过SQL语句,查询搭配数据表内容。 SELECT * FROM t1; id | name ----+---------- 1 | zhangsan 2 | lisi 3 | wangwu 4 | lisa 5 | jack (5 rows)
- 
使用DB4AI-Snapshots。 - 
创建DB4AI-Snapshots - 
示例1:CREATE SNAPSHOT…AS 示例如下,其中,默认版本分隔符为 “@”, 默认子版本分割符为 “.”,该分割符可以分别通过GUC参数db4ai_snapshot_version_delimiter以及db4ai_snapshot_version_separator进行设置。 create snapshot s1@1.0 comment is 'first version' as select * from t1; schema | name --------+-------- public | s1@1.0 (1 row)上述结果提示已经创建了数据表 s1的快照,版本号为 1.0。创建好后的数据表快照可以像使用一般视图一样进行查询,但不支持通过“INSERT INTO”语句进行更新。例如下面几种语句都可以查询到数据表快照s1的对应版本 1.0的内容: SELECT * FROM s1@1.0; SELECT * FROM public.s1@1.0; SELECT * FROM public . s1 @ 1.0; id | name ----+---------- 1 | zhangsan 2 | lisi 3 | wangwu 4 | lisa 5 | jack (5 rows)可以通过下列SQL语句修改数据表t1的内容: UPDATE t1 SET name = 'tom' where id = 4; insert into t1 values (6, 'john'); insert into t1 values (7, 'tim');再检索数据表t1的内容时,发现虽然数据表t1的内容已经发生变化,但是数据表快照 s1@1.0 版本的查询结果并未发生变化。由于数据表t1的数据已经发生了改变,如果将当前数据表的内容作为版本2.0,则可创建快照s1@2.0,创建的SQL语句如下: create snapshot s1@2.0 as select * from t1;通过上述例子,我们可以发现,数据表快照可以固化数据表的内容,避免中途对数据的改动造成机器学习模型训练时的不稳定,同时可以避免多用户同时访问、修改同一个表时造成的锁冲突。 
- 
示例2:CREATE SNAPSHOT…FROM SQL语句可以对一个已经创建好的数据表快照进行继承,利用在此基础上进行的数据修改产生一个新的数据表快照。例如: create snapshot s1@3.0 from @1.0 comment is 'inherits from @1.0' using (INSERT VALUES(6, 'john'), (7, 'tim'); DELETE WHERE id = 1); schema | name --------+-------- public | s1@3.0 (1 row)其中,“@”为数据表快照的版本分隔符,from子句后加上已存在的数据表快照,用法为“@”+版本号,USING关键字后加入可选的几个操作关键字(INSERT …/UPDATE …/DELETE …/ALTER …),其中 “INSERT INTO”以及“DELETE FROM”语句中的“INTO”、“FROM”等与数据表快照名字相关联的子句可以省略,具体可以参考AI特性函数。 示例中,基于前述s1@1.0快照,插入2条数据,删除1条新的数据,新生成的快照s1@3.0,检索该s1@3.0: SELECT * FROM s1@3.0; id | name ----+---------- 2 | lisi 3 | wangwu 4 | lisa 5 | jack 6 | john 7 | tim (7 rows)
 
- 
- 
删除数据表快照SNAPSHOT purge snapshot s1@3.0; schema | name --------+-------- public | s1@3.0 (1 row)此时,已经无法再从s1@3.0 中检索到数据了,同时该数据表快照在db4ai.snapshot视图中的记录也会被清除。删除该版本的数据表快照不会影响其他版本的数据表快照。 
- 
从数据表快照中采样 示例:从snapshot s1中抽取数据,使用0.5抽样率。 sample snapshot s1@2.0 stratify by name as nick at ratio .5; schema | name --------+------------ public | s1nick@2.0 (1 row)可以利用该功能创建训练集与测试集,例如: SAMPLE SNAPSHOT s1@2.0 STRATIFY BY name AS _test AT RATIO .2, AS _train AT RATIO .8 COMMENT IS 'training'; schema | name --------+---------------- public | s1_test@2.0 public | s1_train@2.0 (2 rows)
- 
发布数据表快照 采用下述SQL语句将数据表快照 s1@2.0 标记为published 状态: publish snapshot s1@2.0; schema | name --------+-------- public | s1@2.0 (1 row)
- 
存档数据表快照 采用下述语句可以将数据表快照标记为 archived 状态: archive snapshot s1@2.0; schema | name --------+-------- public | s1@2.0 (1 row)可以通过db4ai-snapshots提供的视图查看当前数据表快照的状态以及其他信息: select * from db4ai.snapshot; id | parent_id | matrix_id | root_id | schema | name | owner | commands | comment | published | archived | created | row_count ----+-----------+-----------+---------+--------+------------+--------+------------------------------------------+---------+-----------+----------+----------------------------+----------- 1 | | | 1 | public | s1@2.0 | omm | {"select *","from t1 where id > 3",NULL} | | t | f | 2021-04-17 09:24:11.139868 | 2 2 | 1 | | 1 | public | s1nick@2.0 | omm | {"SAMPLE nick .5 {name}"} | | f | f | 2021-04-17 10:02:31.73923 | 0
 
- 
- 
异常场景 - 
数据表或db4ai-snapshots不存在时。 purge snapshot s1nick@2.0; publish snapshot s1nick@2.0; --------- ERROR: snapshot public."s1nick@2.0" does not exist CONTEXT: PL/pgSQL function db4ai.publish_snapshot(name,name) line 11 at assignment archive snapshot s1nick@2.0; ---------- ERROR: snapshot public."s1nick@2.0" does not exist CONTEXT: PL/pgSQL function db4ai.archive_snapshot(name,name) line 11 at assignment
- 
删除snapshot时,有依赖该快照的其他snapshot,需先确保删除对本快照所依赖的其他快照。 purge snapshot s1@1.0; ERROR: cannot purge root snapshot 'public."s1@1.0"' having dependent snapshots HINT: purge all dependent snapshots first CONTEXT: referenced column: purge_snapshot_internal SQL statement "SELECT db4ai.purge_snapshot_internal(i_schema, i_name)" PL/pgSQL function db4ai.purge_snapshot(name,name) line 71 at PERFORM
 
- 
- 
相关GUC参数 - 
db4ai_snapshot_mode: Snapshot有2种模式:MSS(物化模式,存储数据实体)和CSS(计算模式,存储增量信息)。Snapshot可在MSS和CSS之间切换快照模式,默认是MSS模式。 
- 
db4ai_snapshot_version_delimiter: 该参数为数据表快照版本分隔符。“@”为数据表快照的默认版本分隔符。 
- 
db4ai_snapshot_version_separator 该参数为数据表快照子版本分隔符。“.”为数据表快照的默认版本分隔符。 
 
- 
- 
DB4AI Schema下的数据表快照详情db4ai.snapshot。 openGauss=# \d db4ai.snapshot Table "db4ai.snapshot" Column | Type | Modifiers -----------+-----------------------------+--------------------------- id | bigint | parent_id | bigint | matrix_id | bigint | root_id | bigint | schema | name | not null name | name | not null owner | name | not null commands | text[] | not null comment | text | published | boolean | not null default false archived | boolean | not null default false created | timestamp without time zone | default pg_systimestamp() row_count | bigint | not null Indexes: "snapshot_pkey" PRIMARY KEY, btree (schema, name) TABLESPACE pg_default "snapshot_id_key" UNIQUE CONSTRAINT, btree (id) TABLESPACE pg_default
说明: 命名空间DB4AI是本功能的私有域,不支持在DB4AI的命令空间下创建函数索引(functional index)。
— END —
 
                             
                         
                            

