Please enter search query.
Search <book_title>...
Veritas Access 版本说明
Last Published:
2018-10-26
Product(s):
Access (7.4.2)
Platform: Linux
- Veritas Access 概述
- 已解决的问题
- 软件限制
- 使用共享 LUN 的相关限制
- 灵活存储共享的相关限制
- 与安装和升级相关的限制
- 备份模式下的限制
- Veritas Access IPv6 限制
- FTP 限制
- Intel Spectre Meltdown 限制
- Samba ACL 性能相关问题
- 在 Veritas Access 群集中使用 InfiniBand NIC 的限制
- 非 SSH 环境中与命令相关的限制
- 在虚拟机环境中使用 Veritas Access 的相关限制
- 与 Veritas Data Deduplication 相关的限制
- NFS-Ganesha 限制
- 基于内核的 NFS v4 限制
- 文件系统限制
- Veritas Access S3 服务器限制
- 长期数据保留 (LTR) 限制
- 与复制相关的限制
- 已知问题
- Veritas Access 已知问题
- 管理问题
- 备份问题
- CIFS 问题
- 重复数据删除问题
- FTP 问题
- 如果文件系统用作 FTP 的 homedir 或 anonymous_login_dir,则无法销毁此文件系统
- FTP> server start 命令报告 FTP 服务器处于联机状态,即使它未联机也会报告此状态
- FTP> session showdetails user=<AD username> 命令不起作用
- 如果 CIFS 中的安全性未设置为 Active Directory (AD),则无法通过 AD 用户登录到 FTP
- 当安全性设置为本地时,如果是全新的操作系统和 Veritas Access 安装,则 FTP 不起作用
- 如果 LDAP 和本地 FTP 用户具有相同的用户名,则安全性从 local 更改为 nis-ldap 时,LDAP 用户无法执行 PUT 操作
- 连接使用虚拟 IP 的控制台节点的客户端无法访问以 LDAP 为安全性的 FTP
- 即使主目录处于脱机状态,FTP 服务器也会启动,且如果安全性更改为本地,FTP 客户端会在 root 文件系统上写入
- 普遍性问题
- GUI 问题
- 同时设置连续性复制链接和间歇性复制链接时,使用高可用性和数据保护策略配置存储不起作用
- 添加新节点或安装并配置新群集时,故障转移后,GUI 可能无法在控制台节点上启动
- 升级早期版本的 Veritas Access 群集时,GUI 显示过时和不完整的数据
- 作为命令的一部分重新启动服务器以添加和删除证书会在 RHEL 7 上显示错误
- 为 NetBackup 配置 S3 存储桶时,如果设备保护选为“采用纠删码”且故障域选为“磁盘”,则存储桶创建操作将失败
- 使用 OpenSSL ocsp 验证客户端证书在 RHEL7 上不起作用
- 使用 GUI 执行 set LDAP 操作时,该操作失败并显示错误
- 使用 Enterprise Vault 策略创建 CIFS 共享时 GUI 不支持分离的 IPv6 地址
- 安装和配置问题
- 重新启动使用 RDMA LLT 的节点后,LLT 不起作用,或 gabconfig -a 命令显示危险状态
- 运行各个 Veritas Access 脚本时可能会返回不一致的返回代码
- SSH 连接断开时使用安装程序配置 Veritas Access 失败
- 使用响应文件配置 Veritas Access 时,从配置中排除 PCI 失败
- 在 I/O 防护配置期间初始化磁盘之后,安装程序没有立即列出已初始化的磁盘
- 如果同一驱动节点同时用于两个安装,则第二个安装显示第一个安装的进度状态
- 如果同一驱动节点同时用于两个或多个安装,则第一个安装会话将终止
- 当从属节点处于重新启动、关闭或崩溃状态时,如果运行 Cluster> show 命令,则从属节点将引发异常
- 如果为 PCI 排除添加重复的 PCI ID,Cluster> add node name 命令将会失败
- 如果从群集节点开始使用响应文件进行安装,则安装会话在配置 NIC 阶段完成后终止
- 完成系统验证检查之后,安装程序显示一条有关缺少第三方 RPM 的警告消息
- 如果在完成群集配置之后从 Veritas Access 命令行界面创建另一个 VLAN 设备,则 VLAN 设备的虚拟组不会联机
- 如果在系统上预配置 LDAP 或 autofs 主目录,Veritas Access 安装会失败
- 完成 Veritas Access 安装后,安装程序不会清除触发安装的 Veritas Access 节点上驱动节点的 SSH 密钥。
- 如果节点的 yum 存储库较旧,且没有 Internet 连接,无法访问 RHN 存储库,则 Veritas Access 安装将失败
- 使用预配置的 VLAN 和预配置的绑定安装 Veritas Access 失败
- 配置 Veritas Access 时,可能未列出公用 NIC
- 在混合模式的 Veritas Access 群集中,执行 Cluster> add node 命令后,有一类未使用的 IP 没有作为物理 IP 分配到公用 NIC
- 专用 IP (x.x.x.2) 不可用时,NLMGroup 服务会进入 FAULTED 状态
- cluster> show 命令未检测到群集的所有节点
- 国际化 (I18N) 问题
- 网络问题
- CVM 服务组意外进入故障状态
- 在混合了 IPv4 和 IPv6 VIP 的网络设置中,IP 平衡不考虑 IP 类型
- 如果在 LDAP 中未找到条目,则网络组搜索不会在 NIS 中继续搜索
- 如果托管 IP 的接口并非当前 IPv6 默认网关接口,则无法从当前 IPv6 子网外部访问 IP
- 在两个专用 NIC 之间或一个专用 NIC 与一个公用 NIC 之间交换网络接口后,不探测从属节点上的服务组
- 在操作系统升级后无法导入网络模块
- 如果升级 Veritas Access,则带有 SSL on 选项的 LDAP 不起作用
- 网络负载平衡器未配置 IPv6
- 无法在安装了 IPv4 的群集上添加 IPv6 默认网关
- LDAP over SSL 在 Veritas Access 7.4.2 中不能正常使用
- 如果指定控制台节点之外的任何节点,network> swap 命令将挂起
- NFS 问题
- 使用 NFS-Ganesha 版本 4 的 Solaris 10 客户端性能低下
- 使用 Linux 客户端的 NFS-Ganesha 的随机写入性能降低
- 如果节点之间的时间不同步,则客户端无法查看服务器的最新目录内容
- 如果重新启动群集节点,则 NFS> share 可能会在一段时间内将共享列为故障状态
- 导入 NFS 配置后,NFS-Ganesha 共享出现故障
- 当共享数超过 500 时,NFS-Ganesha 共享可能不会联机
- 通过多次导出将单个路径导出到多个客户端对 NFS-Ganesha 不起作用
- 对于 NFS-Ganesha 服务器,将大量共享设为联机或脱机需要较长时间
- NFS 客户端应用程序可能会在节点重新引导时失败并显示文件句柄过时错误
- NFS> share show 命令不区分脱机共享与联机共享
- NFS> share show 与 Linux showmount 命令的输出存在差异
- 在切换 NFS 服务器之后,客户端上的 NFS 装入会暂停
- 在节点崩溃的情况下,无法正确地进行内核 NFS v4 锁故障转移
- 网络组的内核 NFS v4 导出装入无法正常运行
- 用于 IPv6 子网的 NFS-Ganesha 共享无法工作,NFS 共享进入故障状态
- 文件系统进入 FAULTED 或 OFFLINE 状态时,在所有节点上,与该文件系统关联的 NFS 共享组不会变为脱机状态
- ObjectAccess 问题
- 尝试通过 SSLS3 连接到 S3 服务器时,客户端应用程序可能会发出类似于“SSL3_GET_SERVER_CERTIFICATE:certificate verify failed”的警告
- 如果已从早期版本升级到 Veritas Access 7.4.2,而且群集名称包含大写字母,则对 S3 服务器的访问将失败
- 如果群集名称未遵循 DNS 主机名限制,则无法在 Veritas Access 中使用 ObjectAccess 服务
- 创建存储桶可能失败并显示超时错误
- 删除存储桶可能失败并显示“No such bucket”或“No such key”错误
- 如果组名中包含空格,则组配置在 ObjectAccess 中不起作用
- OpenDedup 问题
- 删除 OpenDedup 卷后不回收文件系统存储
- Storage> fs online 命令失败并显示 EBUSY 错误
- 对使用单个存储桶且装入在两个不同介质服务器上的 OpenDedup 卷运行 df-h 命令时,输出不匹配
- 如果 OpenDedup> volume create 命令在执行期间失败,不会还原所做更改
- 升级后,其中一些 OpenDedup 卷统计数据重置为零
- OpenDedup 卷装入操作失败并显示错误
- 从 AWS Glacier 还原数据失败
- 在升级 OpenDedup 后,如果群集名称发生更改,则 OpenDedup 卷不会联机
- 如果 OpenDedup 位于介质服务器上且正在运行还原作业,则重新启动 Veritas Access 主节点时,还原的文件可能处于不一致状态
- OpenDedup> volume list 命令可能不显示卷的节点 IP
- 在混合模式下配置 Veritas Access 时,配置 LTR 脚本会从可用的 Veritas Access 虚拟 IP 中随机选择一个虚拟 IP
- OpenStack 问题
- 复制问题
- 在相同源上运行间歇性复制和重复数据删除时,间歇性复制文件系统在某些情况下会失败
- System> config import 命令无法导入间歇性复制密钥和作业
- 作业在间歇性复制故障转移之后使用目标上的调度
- 如果目标节点进行故障转移,则间歇性复制失败并显示错误“connection reset by peer”
- 升级后无法识别在 Veritas Access 7.2.1.1 或更低版本中创建的间歇性复制作业
- 对于间歇性复制,不支持通过 GUI 设置带宽
- 在执行作业移除和添加链接操作后,加密的间歇性复制作业失败,并显示 SSL 证书错误
- 间歇性复制作业状态显示已移除链接的条目
- 间歇性复制作业修改失败
- 间歇性复制故障转移不起作用
- 在目标上手动重新启动 had 后台驻留程序时连续性复制失败
- 如果存储复制日志已满,则连续性复制无法进入复制状态
- 如果群集节点之间的 IPTABLE 规则通信不正常,则连续性复制中的计划外故障转移和故障回退可能会失败
- 如果连续性复制 IP 在主节点上未处于联机状态,而在另一个节点上处于联机状态,则连续性复制配置可能会失败
- 如果重新启动主群集或辅助群集中的任何节点,复制可能会进入 PAUSED 状态
- SDS 已知问题
- SmartIO 问题
- 存储问题
- 如果设置快照配额,快照装入可能会失败
- 有时 Storage> pool rmdisk 命令不会输出消息
- Storage> pool rmdisk 命令有时会显示错误,指出未输出文件系统名称
- 无法为新添加到 CIFS 主目录列表中的文件系统启用配额
- 销毁文件系统可能不会移除装入点的 /etc/mtab 条目
- Storage> fs online 命令返回错误,但文件系统在几分钟后处于联机状态
- 如果存在 DCO,则从池中移除磁盘失败
- 即使 df 命令显示文件系统中有可用空间,横向扩展文件系统仍会返回 ENOSPC 错误
- 在运行 Storage> fs growby 或 growto 命令之后运行回滚时,回滚刷新失败
- 如果导出的 DAS 磁盘处于错误状态,使用 Storage> list 时,它在本地节点上显示 ERR,在远程节点上显示 NOT_CONN
- 禁用 I/O 防护时,在管理服务关闭的情况下群集状态不一致
- Storage> tier move 命令无法对节点进行故障转移
- Storage> scanbus 操作在 I/O 防护操作时挂起
- 当相关的缓存对象已满时,回滚服务组进入故障状态且无法清除该状态
- 当缓存对象已满时,未生成事件消息
- Veritas Access 命令行界面不应允许同时在相同文件上运行解压缩和压缩操作
- 存储设备出现故障并显示 SIGBUS 信号,导致横向扩展文件系统后台驻留程序异常终止
- 如果重新引导群集节点之一,Storage> tier move list 命令将会失败
- 指定为 Storage> fs policy add 过滤条件的模式有时会错误传输不符合条件的文件
- 在发出 Storage> fs policy resume 之后完成策略运行时,总数据量和文件总数可能与 Storage> fs policy 状态中显示的移动数据量和文件计数不匹配
- Storage> fs addcolumn 操作失败,但不发送错误通知
- Storage> fs-growto 和 Storage> fs-growby 命令返回独立磁盘错误
- 存在分层时,无法创建空间优化回滚
- 针对包含 Volume Manager 对象的设置启用 I/O 防护将无法导入磁盘组
- 池仅包含一个磁盘时创建文件系统失败
- 启动备份服务后,BackupGrp 在某些节点上进入 FAULTED 状态
- 使用精简 LUN 创建简单布局的横向扩展文件系统可能会在 Storage> fs list 命令中显示分层布局
- 使用 largefs-striped 或 largefs-mirrored-stripe 布局创建的文件系统可能会在 Storage> fs list 命令中显示错误的列数
- 使用 SSD 池创建文件系统失败
- 执行 Storage> fencing off/on 命令后,横向扩展文件系统可能会进入故障状态
- 将 Azure 层添加到横向扩展文件系统后,无法将文件移至 Azure 层,且 Storage> tier stats 命令可能会失败
- 重新启动管理控制台节点后,CVM 服务组进入故障状态
- 如果群集的其中一个节点处于未知状态,Storage> fs create 命令无法正确显示输出
- 如果文件系统或存储桶的大小已满,Storage> fs growby 和 Storage> fs growto 命令将失败
- 防护磁盘的操作系统名称在 Veritas Access 群集中不一致,这可能会导致出现问题
- 启用了防护时,磁盘组导入操作失败,且所有服务会进入故障状态
- 创建纠删码文件系统时,在执行 Storage> fs create 命令过程中显示一条误导消息,导致出现问题
- 在 Veritas Access 群集节点恢复期间,如果在重新启动后有另一个节点加入群集,可能会从群集中显式弹出或中止该节点
- 创建文件系统时出错,指出 CVM 主服务器和管理控制台不在同一节点上
- 配置基于磁盘的防护时,重新启动节点后群集不会联机
- 在采用纠删码的文件系统中,重新启动节点后,其中一些文件系统不会卸载
- 重新启动节点后,vxdclid 进程可能会生成核心转储
- 重新启动群集中的某些节点后,Veritas Access 命令行界面可能无法访问
- cluster> shutdown 命令无法关闭节点
- 系统问题
- 目标问题
- 升级问题
- Veritas Data Deduplication 问题
- Veritas Access 已知问题
- 获取帮助