OpenShiftContainerPlatform4.7,OpenShift

密码 6
ContainerPlatform4.7 支持 获取OpenShiftContainerPlatform支持 LastUpdated:2022-02-07 OpenShiftContainerPlatform4.7支持 获取OpenShiftContainerPlatform支持 Enteryourfirstnamehere.Enteryoursurnamehere.Enteranisation'snamehere.Enteranisationaldivisionhere.Enteryouremailaddresshere. 法律通告 Copyright©2022|YouneedtochangetheHOLDERentityintheen-US/Support.entfile|. ThetextofandillustrationsinthisdocumentarelicensedbyRedHatunderaCreativeCommonsAttribution–ShareAlike3.0Unportedlicense("CC-BY-SA").AnexplanationofCC-BY-SAisavailableat/licenses/by-sa/3.0/.InordancewithCC-BY-SA,ifyoudistributethisdocumentoranadaptationofit,youmustprovidetheURLfortheoriginalversion. RedHat,asthelicensorofthisdocument,waivestherighttoenforce,andagreesnottoassert,Section4dofCC-BY-SAtothefullestextentpermittedbyapplicablelaw. RedHat,RedHatEnterpriseLinux,theShadowmanlogo,theRedHatlogo,JBoss,OpenShift,Fedora,theInfinitylogo,andRHCEaretrademarksofRedHat,Inc.,registeredintheUnitedStatesandothercountries. Linux®istheregisteredtrademarkofLinusTorvaldsintheUnitedStatesandothercountries. Java®isaregisteredtrademarkofOracleand/oritsaffiliates. XFS®isatrademarkofSiliconGraphicsInternationalCorp.oritssubsidiariesintheUnitedStatesand/orothercountries. MySQL®isaregisteredtrademarkofMySQLABintheUnitedStates,theEuropeanUnionandothercountries. Node.js®isanofficialtrademarkofJoyent.RedHatisnotformallyrelatedtoorendorsedbytheofficialJoyentNode.jsopensourcemercialproject. TheOpenStack®WordMarkandOpenStacklogoareeitherregisteredtrademarks/servicemarksortrademarks/servicemarksoftheOpenStackFoundation,intheUnitedStatesandothercountriesandareusedwiththeOpenStackFoundation'spermission.Wearenotaffiliatedwith,endorsedorsponsoredbytheOpenStackFoundation,orthemunity. Allothertrademarksarethepropertyoftheirrespectiveowners. 摘要 本文档提供了有关从红帽获取OpenShiftContainerPlatform支持的信息。
文中还包含有关通过Telemetry和InsightsOperator进行远程健康监控的信息。
本文档还详细介绍了远程健康监控的好处。
目录 目录 第...1.章...支..持..概..述................................................................................................4............. 1.1.获取支持
4 1.2.远程健康监控问题
4 1.3.收集有关集群的数据
4 1.4.问题故障排除
5 第...2..章..管..理...集..群..资..源...........................................................................................7............. 2.1.与集群资源交互
7 第...3..章..获...取..支..持...............................................................................................8............. 3.1.获取支持
8 3.2.关于红帽知识库
8 3.3.搜索红帽知识库
8 3.4.提交支持问题单
8 3.5.其他资源 10 第...4..章..通...过..连..接..集..群..进..行...远..程..健..康..监..控..........................................................................1.1............ 4.1.关于远程健康监控 11 4.1.1.关于Telemetry 11 4.1.1.1.Telemetry收集的信息 12 4.1.2.关于InsightsOperator 12 4.1.2.1.InsightsOperator收集的信息 13 4.1.3.了解Telemetry和InsightsOperator数据流 13 4.1.4.有关如何使用远程健康监控数据的更多详情 14 4.2.显示远程健康监控收集的数据 14 4.2.1.显示Telemetry收集的数据 15 4.2.2.显示InsightsOperator收集的数据 15 4.3.不使用远程健康报告功能 16 4.3.1.禁用远程健康报告的后果 16 4.3.2.修改全局集群pullsecret,以禁用远程健康报告 16 4.3.3.更新全局集群pullsecret 17 4.4.使用INSIGHTS发现集群中的问题 18 4.4.1.显示集群中的潜在问题 18 4.4.2.在web控制台中显示Insights状态 19 4.5.在受限网络中使用远程健康报告 19 4.5.1.复制InsightsOperator存档 19 4.5.2.上传InsightsOperator存档 20 第...5..章..收..集...集..群..数..据..........................................................................................2.2............. 5.1.关于MUST-GATHER工具 22 5.1.1.为红帽支持收集您的集群数据 22 5.1.2.收集有关特定功能的数据 23 5.1.3.收集审计日志 27 5.2.获取集群ID 28 5.3.关于SOSREPORT 28 5.4.为OPENSHIFTCONTAINERPLATFORM集群节点生成SOSREPORT归档 28 5.5.查询BOOTSTRAP节点日志 31 5.6.查询集群节点JOURNAL日志 31 5.7.从OPENSHIFTCONTAINERPLATFORM节点或容器收集网络追踪(TRACE) 32 5.8.为红帽支持提供诊断数据 35 5.9.关于TOOLBOX 37 将软件包安装到toolbox容器 37
1 OpenShiftContainerPlatform4.7支持 使用toolbox启动备用镜像 37 第...6..章..集...群..规..格..总..结..........................................................................................3.9............. 6.1.通过CLUSTERVERSION总结集群规格 39 第...7..章..故..障...排..除..............................................................................................4.0............. 7.1.安装故障排除 40 7.1.1.确定安装问题在哪里发生 40 7.1.2.用户置备的基础架构安装注意事项 40 7.1.3.在OpenShiftContainerPlatform安装前检查负载均衡器配置 41 7.1.4.指定OpenShiftContainerPlatform安装程序日志级别 42 7.1.5.openshift-install命令问题故障排除 42 7.1.6.监控安装进度 42 7.1.7.收集bootstrap节点诊断数据 43 7.1.8.调查controlplane节点安装问题 45 7.1.9.解决etcd安装问题 49 7.1.10.调查controlplane节点kubelet和API服务器问题 50 7.1.11.调查worker节点安装问题 52 7.1.12.安装后查询Operator状态 55 7.1.13.从失败安装中收集日志 57 7.1.14.其他资源 58 7.2.验证节点健康状况 59 7.2.1.查看节点状态、资源使用量和配置 59 7.2.2.在节点上查询kubelet状态 59 7.2.3.查询集群节点journal日志 60 7.3.CRI-O容器运行时问题故障排除 61 7.3.1.关于CRI-O容器运行时引擎 61 7.3.2.验证CRI-O运行时引擎状态 61 7.3.3.收集CRI-Ojournald单元日志 62 7.3.4.清理CRI-O存储 63 7.3.5.检查内核崩溃 65 7.3.5.1.启用kdump 65 7.3.5.2.在第1天启用kdump 65 7.3.5.3.测试kdump配置 67 7.3.5.4.分析内核转储 67 7.3.5.4.1.网络问题故障排除 68 7.3.5.4.2.TroubleshootingOperator的问题 72 7.3.5.4.3.检查pod问题 84 7.3.5.4.4.对Source-to-Image进行故障排除 90 7.3.5.4.5.存储问题故障排除 93 7.3.5.4.6.Windows容器工作负载问题故障排除 94 7.3.5.4.7.调查监控问题 97 7.3.5.4.8.诊断OpenShiftCLI(oc)问题 102
2 目录
3 OpenShiftContainerPlatform4.7支持 第1章支持概述 红帽提供了集群管理员工具,用于为集群、监控和故障排除收集数据。
1.1.获取支持 获取支持:访问红帽客户门户以查看知识库文章、提交支持案例以及查看其他产品文档和资源。
1.2.远程健康监控问题 远程健康监控问题:OpenShiftContainerPlatform会收集有关集群的遥测和配置数据,并使用TelemeterClient和InsightsOperator向红帽报告。
红帽使用此数据来了解和解决连接的集群中的问题。
与连接的集群类似,您可以在受限网络中使用远程健康监控。
OpenShiftContainerPlatform使用以下方法收集数据并监控健康状况: Telemetry:遥测客户端每隔四分30秒收集指标值并上传到红帽。
红帽使用这些数据来:监控集群。
推出OpenShiftContainerPlatform升级。
改善升级体验。
InsightsOperator:默认情况下,OpenShiftContainerPlatform会安装并启用InsightOperator,它每两小时报告配置和组件失败状态。
InsightOperator有助于: 主动识别潜在的群集问题.在RedHatOpenShiftClusterManager中提供解决方案并采取相应措施。
您可以查看遥测信息。
如果您启用了远程健康报告,请使用智能分析工具来识别问题。
您可选择禁用远程健康报告。
1.3.收集有关集群的数据 收集有关集群的数据:红帽建议在打开问题单时收集调试信息。
这有助于红帽支持进行根本原因分析。
集群管理员可使用以下方法来收集有关集群的数据: must-gather工具:使用must-gather工具来收集有关集群的信息并调试问题。
sosreport:使用sosreport工具为调试收集配置详情、系统信息和诊断数据。
集群ID:在向红帽支持提供信息时,获取集群的唯一标识符。
Bootstrap节点日志:从bootstrap节点收集bootkube.servicejournald单元日志和容器日志,以排除与bootstrap相关的问题。
集群节点日志:收集journald单元日志,并在单个集群节点上的/var/log中记录日志,对节点相关问题进行故障排除。
网络追踪:向红帽支持提供来自特定OpenShiftContainerPlatform集群节点或容器的网络数据包追踪,以帮助解决网络相关问题。
诊断数据:使用redhat-support-tool命令来收集有关集群的诊断数据。

4 第1章支持概述 1.4.问题故障排除 集群管理员可以监控并排除以下OpenShiftContainerPlatform组件问题:安装问题:OpenShiftContainerPlatform安装在各个阶段进行。
您可以执行以下操作:监控安装阶段。
确定在哪个阶段发生安装问题。
调查多个安装问题。
从失败的安装收集日志。
节点问题:集群管理员可以通过查看节点的状态、资源使用情况和配置来验证节点相关问题并进行故障排除。
您可以查询以下内容:kubelet节点上的状态。
集群节点日志.crio问题:集群管理员可以在每个集群节点上验证CRI-O容器运行时引擎状态。
如果您遇到容器运行时问题,请执行以下操作:收集CRI-Ojournald单元日志。
清理CRI-O存储.操作系统问题:OpenShiftContainerPlatform在RedHatEnterpriseLinuxCoreOS上运行。
如果您遇到操作系统问题,可以调查内核崩溃程序。
确保以下内容:启用kdump。
测试kdump配置。
分析核心转储.网络问题:要排除OpenvSwitch问题,集群管理员可以执行以下操作:临时配置OpenvSwitch日志级别。
永久配置OpenvSwitch日志级别。
显示OpenvSwitch日志.Operator问题:集群管理员可以执行以下操作来解决Operator问题:验证Operator订阅状态。
检查Operatorpod健康状况。
收集Operator日志。
pod问题:集群管理员可以通过查看pod的状态并完成以下操作来排除与pod相关的问题:查看pod和容器日志。
启动具有root访问权限的debugpod。

5 OpenShiftContainerPlatform4.7支持Source-to-image问题:集群管理员可以观察S2I阶段以确定S2I进程中发生故障的位置。
收集以下内容来解决Source-to-Image(S2I)问题:Source-to-Image诊断数据.用于调查应用故障的应用诊断数据。
存储问题:因为故障节点无法卸载附加卷,因此不可能在新节点上挂载卷时出现多附加存储错误。
集群管理员可以执行以下操作来解决多附加存储问题:使用RWX卷启用多个附件。
使用RWO卷时,恢复或删除故障节点。
监控问题:集群管理员可遵循监控故障排除页面中的步骤。
如果用户定义的项目的指标不可用,或者Prometheus消耗了大量磁盘空间,请检查以下内容:调查为什么用户定义的指标不可用。
确定为什么Prometheus消耗大量磁盘空间。
日志记录问题:集群管理员可以按照对OpenShiftLogging问题进行故障排除页面的步骤进行操作。
检查以下内容以解决日志问题:LoggingOperator的状态。
日志存储的状态.OpenShiftLogging警报。
使用ocadmmust-gather命令提供有关OpenShift日志记录环境的信息。
OpenShiftCLI(oc)问题:通过提高日志级别来捕获OpenShiftCLI(oc)问题。

6 第2章管理集群资源 第2章管理集群资源 您可以在OpenShiftContainerPlatform中应用全局配置选项。
操作器在集群中应用这些配置设置。
2.1.与集群资源交互 您可以使用OpenShiftContainerPlatform中的OpenShiftCLI(oc)工具来与集群资源交互。
可以编辑运行ocapi-resources命令后看到的集群资源。
先决条件 您可以使用具有cluster-admin角色的用户访问集群。
您可以访问web控制台或安装了ocCLI工具。
流程
1.要查看应用了哪些配置Operator,请运行以下命令: $ocapi-resources-oname|grepconfig.openshift.io2.要查看您可以配置哪些集群资源,请运行以下命令: $ocexplain.config.openshift.io3.要查看集群中的自定义资源定义(CRD)对象的配置,请运行以下命令: $ocget.config-oyaml4.要编辑集群资源配置,请运行以下命令: $ocedit.config-oyaml
7 OpenShiftContainerPlatform4.7支持 第3章获取支持 3.1.获取支持 如果您在执行本文档所述的某个流程或OpenShiftContainerPlatform时遇到问题,请访问红帽客户门户网站。
通过红帽客户门户网站: 搜索或者浏览红帽知识库,了解与红帽产品相关的文章和解决方案。
提交问题单给红帽支持。
访问其他产品文档。
为了识别集群中的问题,您可以在RedHatOpenShiftClusterManager中使用Insights。
Insights提供了问题的详细信息,并在有可用的情况下,提供了如何解决问题的信息。
如果您对本文档有任何改进建议,或发现了任何错误,请访问Bugzilla,针对OpenShiftContainerPlatform产品的Documentation组件提交Bugzilla报告。
请提供具体详情,如章节名称和OpenShiftContainerPlatform版本。
3.2.关于红帽知识库 红帽知识库提供丰富的内容以帮助您最大程度地利用红帽的产品和技术。
红帽知识库包括文章、产品文档和视频,概述了安装、配置和使用红帽产品的最佳实践。
另外,您还可以搜索已知问题的解决方案,其提供简洁的根原因描述和补救措施。
3.3.搜索红帽知识库 如果出现OpenShiftContainerPlatform问题,您可以先进行搜索,以确定红帽知识库中是否已存在相关的解决方案。
先决条件您有红帽客户门户网站帐户。
流程
1.登录到红帽客户门户网站。

2.在主红帽客户门户网站搜索字段中,输入与问题相关的关键字和字符串,包括:OpenShiftContainerPlatform组件(如etcd)相关步骤(比如安装)警告、错误消息和其他与输出与特定的问题相关
3.点Search。

4.选择OpenShiftContainerPlatform产品过滤器。

5.在内容类型过滤中选择Knowledgebase。
3.4.提交支持问题单
8 第3章获取支持 先决条件您可以使用具有cluster-admin角色的用户访问集群。
已安装OpenShiftCLI(oc)。
您有红帽客户门户网站帐户。
您有红帽标准订阅或高级订阅。
流程
1.登录到红帽客户门户网站并选择SUPPORTCASES→Openacase。

2.为您的问题选择适当的类别(如Defect/Bug)、产品(OpenShiftContainerPlatform)和产品版本(如果还没有自动填充则为4.7)。

3.查看推荐的红帽知识库解决方案列表,它们可能会与您要报告的问题相关。
如果建议的文章没有解决这个问题,请点Continue。

4.输入一个简洁但描述性的问题概述,以及问题症状的详细信息,以及您预期的结果。

5.查看更新的推荐红帽知识库解决方案列表,它们可能会与您要报告的问题相关。
这个列表的范围会缩小,因为您在创建问题单的过程中提供了更多信息。
如果建议的文章没有解决这个问题,请点Continue。

6.请确保提供的帐户信息是正确的,如果需要,请相应调整。

7.检查自动填充的OpenShiftContainerPlatform集群ID是否正确。
如果不正确,请手动提供集群ID。
使用OpenShiftContainerPlatformWeb控制台手动获得集群ID。
a.导航到Home→Dashboards→Overview。
b.该值包括在Details中的ClusterID项中。
另外,也可以通过OpenShiftContainerPlatformWeb控制台直接创建新的支持问题单,并自动填充集群ID。
a.从工具栏导航至(?)help→OpenSupportCase。
b.ClusterID的值会被自动填充。
要使用OpenShiftCLI(oc)获取集群ID,请运行以下命令: $ocgetclusterversion-ojsonpath='{.items[].spec.clusterID}{"\n"}'
8.完成以下提示的问题,点Continue:您在哪里遇到了这个问题?什么环境? 这个行为在什么时候发生?发生频率?重复发生?是否只在特定时间发生? 请提供这个问题对您的业务的影响及与时间相关的信息?
9.上传相关的诊断数据文件并点击Continue。
建议您将使用ocadmmust-gather命令收集的数 据作为起点,并提供这个命令没有收集的与您的具体问题相关的其他数据。

9 OpenShiftContainerPlatform4.7支持10.输入相关问题单管理详情,点Continue。
11.预览问题单详情,点Submit。
3.5.其他资源 有关在集群中识别问题的详情,请参阅使用Insights识别集群中的问题。
10 第4章通过连接集群进行远程健康监控 第4章通过连接集群进行远程健康监控 4.1.关于远程健康监控 OpenShiftContainerPlatform会收集有关集群的遥测和配置数据,并使用TelemeterClient和InsightsOperator向红帽报告。
提供给红帽的数据可实现本文档概述的好处。
通过Telemetry和InsightsOperator向红帽报告数据的集群被称为连接的集群(connectedcluster)。
Telemetry是红帽用来描述OpenShiftContainerPlatformTelemeter客户端向红帽发送的信息的术语。
轻量级属性从连接的集群发送到红帽,以便启用订阅管理自动化、监控集群的健康状态、提供支持以及改进客户体验。
InsightsOperator收集OpenShiftContainerPlatform配置数据并将其发送到红帽。
这些数据用于生成有关集群可能潜在存在的问题的分析报告。
这些分析结果会通过/openshift提供给集群管理员。
本文档中提供了有关这两个工具的更多信息。
Telemetry和InsightsOperator的优点Telemetry和InsightsOperator为最终用户提供以下优点: 增强了识别和解决问题的能力。
对于一些事件,最终用户可能会认为是正常的,但从更广泛深入的角度来说,红帽会对这些事件的影响有不同的评估。
因此,一些问题可以被更快地识别并解决,而不需要用户创建一个支持问题单或Bugzilla文件。
高级的版本管理。
OpenShiftContainerPlatform提供了candidate、fast和stable发行频道,供您选择一个最佳的更新策略。
版本从fast到stable的过程取决于更新的速度以及升级过程中的事件。
通过连接的集群提供的信息,红帽可以将发行版本质量提高到stable频道,并对在fast频道中发现的问题做出更快反应。
有针对性地对新功能的开发进行优先级排序。
通过收集的数据,可以了解哪些OpenShiftContainerPlatform的功能被用户广泛使用。
通过这些信息,红帽可以专注于开发对客户有严重影响的新功能。
更好的支持体验。
在红帽客户门户网站上创建支持问题单时,可以为连接的集群提供集群ID。
这可让红帽通过使用连接的信息,简化用户的支持体验。
本文档提供有关改进的支持体验的更多信息。
预测分析。
通过从连接集群收集到的信息,可以在/openshift中显示与您的集群相关的insights信息。
红帽正在积极应用深入学习、机器学习及智能自动化,以帮助识别OpenShiftContainerPlatform集群潜在的问题。
4.1.1.关于Telemetry Telemetry会向红帽发送一组精选的集群监控指标子集。
Telemeter客户端每4分30秒获取一次指标值,并将数据上传到红帽。
本文档中描述了这些指标。
红帽使用这一数据流来实时监控集群,必要时将对影响客户的问题做出反应。
它同时还有助于红帽向客户推出OpenShiftContainerPlatform升级,以便最大程度降低服务影响,持续改进升级体验。
这类调试信息将提供给红帽支持和工程团队,其访问限制等同于访问通过问题单报告的数据。
红帽利用所有连接集群信息来帮助改进OpenShiftContainerPlatform,提高其易用性。
11 OpenShiftContainerPlatform4.7支持 其他资源如需有关更新或升级集群的更多信息,请参阅OpenShiftContainerPlatform更新文档。
4.1.1.1.Telemetry收集的信息Telemetry收集以下信息: 安装期间生成的唯一随机标识符 版本信息,包括OpenShiftContainerPlatform集群版本并安装了用于决定更新版本可用性的更新详情 更新信息,包括每个集群可用的更新数、用于更新的频道和镜像存储库、更新进度信息以及更新中发生的错误数 部署OpenShiftContainerPlatform的供应商平台的名称及数据中心位置有关集群、机器类型和机器的大小信息,包括CPU内核数和每个机器所使用的RAM量etcd成员数和存储在etcd集群中的对象数量在集群中安装的OpenShiftContainerPlatform框架组件及其状况和状态有关组件、功能和扩展的使用情况信息 有关技术预览和不受支持配置的使用详情 有关降级软件的信息标记为NotReady的节点的信息为降级Operator列出为"relatedobjects"的所有命名空间的事件帮助红帽支持为客户提供有用支持的配置详情。
这包括云基础架构级别的节点配置、主机名、IP地址、espod名称、命名空间和服务。
有关证书的有效性的信息 Telemetry不会收集任何身份识别的信息,如用户名或密码。
红帽不会收集个人信息。
如果红帽发现个人信息被意外地收到,红帽会删除这些信息。
有关红帽隐私实践的更多信息,请参考红帽隐私声明。
其他资源如需了解如何列出Telemetry中从Prometheus收集的属性的详细信息,请参阅显示Telemetry收集的数据。
如需Telemetry从Prometheus收集的属性列表,请参阅上游cluster-monitoring-operator源代码。
在默认情况下,Telemetry会被安装并启用。
如果您需要选择不使用远程健康报告,请参阅不使用远程健康报告。
4.1.2.关于InsightsOperator InsightsOperator会定期收集配置和组件故障状态信息,默每两小时向红帽报告这些数据。
这些信息可让红帽评估配置,它提供了比Telemetry报告更深入的数据。
OpenShiftContainerPlatform用户可以在RedHatOpenShiftClusterManager中显示每个集群的报 12 第4章通过连接集群进行远程健康监控 OpenShiftContainerPlatform用户可以在RedHatOpenShiftClusterManager中显示每个集群的报告。
如果发现了任何问题,Insights会提供更详细的信息,并在可能的情况下提供如何解决相关问题的步骤。
InsightsOperator不会收集任何身份识别信息,如用户名、密码或证书。
如需有关RedHatInsights数据收集和控制的信息,请参阅RedHatInsights数据和应用程序安全性。
红帽使用所有连接的集群信息以实现: 主动识别潜在的集群问题,并在RedHatOpenShiftClusterManager中提供相应的解决方案 通过为产品和支持团队提供聚合和重要信息来改进OpenShiftContainerPlatform 使OpenShiftContainerPlatform更直观 其他资源InsightsOperator被默认安装并启用。
如果您需要选择不使用远程健康报告,请参阅不使用远程健康报告。
4.1.2.1.InsightsOperator收集的信息InsightsOperator收集以下信息: 有关集群及其组件的常规信息,以识别与您所使用的具体OpenShiftContainerPlatform版本和环境的相关问题 集群的配置文件(如容器镜像仓库的配置)用于识别设置参数中的问题 集群组件中发生的错误 正在运行的更新的进度信息,以及组件升级的状态 有关OpenShiftContainerPlatform部署平台(如AmazonWebServices)以及集群所在区域的详情 如果Operator报告了一个问题,则会收集openshift-*和kube-*项目中OpenShiftContainerPlatform核心pod的信息。
这包括状态、资源、安全上下文、卷信息等。
其他资源如需了解如何查看InsightsOperator收集的数据,请参阅InsightsOperator收集的数据。
用户可以查看InsightsOperator的源代码,并对代码进行贡献。
如需InsightsOperator收集的项目列表,请参阅InsightsOperator上游项目。
4.1.3.了解Telemetry和InsightsOperator数据流 TelemeterClient从PrometheusAPI收集所选的时间序列数据。
时间序列数据每4分30秒上传到进行处理。
InsightsOperator从esAPI和PrometheusAPI中收集所选的数据并进行存档。
该归档会每两小时上传到进行处理。
InsightsOperator还从下载最新的Insights分析。
这用于填充OpenShiftContainerPlatformWeb控制台的Overview页面中包含的Insightsstatus。
所有与红帽的通信都使用传输层安全(TLS)和mutual证书验证通过加密频道进行。
所有数据在传输及 13 OpenShiftContainerPlatform4.7支持 所有与红帽的通信都使用传输层安全(TLS)和mutual证书验证通过加密频道进行。
所有数据在传输及非活跃的情况下都会被加密。
对处理客户数据的系统是通过多因素验证和严格的授权控制来控制的。
访问权限的设置是基于需要的,仅限于针对需要的操作。
telemetry和InsightsOperator数据流 OpenShiftContainerPlatform Webconsole esAPI 其他资源 InsightsOperator 如需有关OpenShiftContainerPlatform监控堆栈的更多信息,请参阅了解监控堆栈。
如需有关配置防火墙,以及为Telemetry和Insights启用端点的详情,请参阅配置防火墙 4.1.4.有关如何使用远程健康监控数据的更多详情 Telemetry收集的信息和InsightsOperator收集的信息中提供了与启用健康检查健康相关的数据收集的信息。
如本文档前面部分所述,红帽会收集您使用红帽产品的数据,如提供支持和升级、优化性能或配置、减小服务影响、识别和补救威胁、故障排除、改进提供和用户体验、响应问题、根据情况提供账单目的。
集合保护红帽采用一些技术和机构措施来保护遥测数据和配置数据。
共享红帽可以在红帽内部通过Telemetry和InsightsOperator共享收集的数据,以提升您的用户体验。
红帽可能会以汇总的方式与业务合作伙伴共享遥测和配置数据,该表格可帮助合作伙伴更好地了解其业务及其客户对红帽产品的使用,或者确保成功整合这些合作伙伴支持的产品。
第三方服务供应商红帽可能会与某些服务供应商互动,帮助收集并存储遥测和配置数据。
用户控制/启用和禁用遥测和配置数据收集您可以按照不使用远程健康报告中的说明禁用OpenShiftContainerPlatformTelemetry和InsightsOperator。
4.2.显示远程健康监控收集的数据 作为管理员,您可以查看Telemetry和InsightsOperator收集的指标。
14 第4章通过连接集群进行远程健康监控 4.2.1.显示Telemetry收集的数据 您可以查看Telemetry收集的集群和组件的时间序列数据。
先决条件 安装OpenShiftCLI(oc)。
您必须使用具有cluster-admin角色或cluster-monitoring-view角色的用户登录集群。
流程
1.找到在OpenShiftContainerPlatform集群中运行的Prometheus服务的URL: $ocgetrouteprometheus-k8s-nopenshift-monitoring-ojsonpath="{.spec.host}"
2.访问此URL。

3.在Expression中输入查询条件并点Execute: {__name__=~"cluster:usage:.*|count:up0|count:up1|cluster_version|cluster_version_available_u
pdates|cluster_operator_up|cluster_operator_conditions|cluster_version_payload|cluster_install
er|cluster_infrastructure_provider|cluster_feature_set|instance:etcd_object_counts:sum|ALERT
S|code:apiserver_request_total:rate:sum|cluster:capacity_cpu_cores:sum|cluster:capacity_mem
ory_bytes:sum|cluster:cpu_usage_cores:sum|cluster:memory_usage_bytes:sum|openshift:cpu_usage_cores:sum|openshift:memory_usage_bytes:sum|workload:cpu_usage_cores:sum|workload:memory_usage_bytes:sum|cluster:virt_platform_nodes:sum|cluster:node_instance_type_count:v:vmi_status_running:count|node_role_os_version_machine:cpu_capacity_cores:sum|node_role_os_version_machine:cpu_capacity_sockets:sum|subscription_sync_total|csv_eeded|csv_abnormal|ceph_cluster_total_bytes|ceph_cluster_total_used_raw_bytes|ceph_health_status|job:ceph_osd_metadata:count|job:kube_pv:count|job:ceph_pools_iops:total|job:ceph_pool
s_iops_bytes:total|job:ceph_versions_running:count|job:noobaa_total_unhealthy_buckets:sum|jo
b:noobaa_bucket_count:sum|job:noobaa_total_object_count:sum|noobaa_ounts_num|noobaa_total_usage|console_url|work_attachment_definition_instances:max|work_attachment_definition_enabled_instance_up:max|insightsclient_request_send_total|cam_app_workload_migrations|cluster:apiserver_current_inflight_requests:sum:max_over_time:2m|clust
er:telemetry_selected_series:count",alertstate=~"firing|"} 此查询复制Telemetry对正在运行的OpenShiftContainerPlatform集群的Prometheus服务所做的请求,并返回由Telemetry收集的完整时间序列集。
4.2.2.显示InsightsOperator收集的数据 您可以查看InsightsOperator收集的数据。
先决条件 使用具有cluster-admin角色的用户访问集群。
流程
1.为InsightsOperator查找当前正在运行的pod的名称: 15 OpenShiftContainerPlatform4.7支持 $INSIGHTS_OPERATOR_POD=$(ocgetpods--namespace=openshift-insights-ocustomcolumns=:metadata.name--no-headers--field-selector=status.phase=Running)
2.复制InsightsOperator收集的最近数据存档:$occpopenshift-insights/$INSIGHTS_OPERATOR_POD:/var/lib/insights-operator./insightsdata InsightsOperator最近存档可在insights-data目录中找到。
4.3.不使用远程健康报告功能 您可以选择不报告集群健康和使用情况数据。
要选择不使用远程健康报告,您必须:
1.修改全局集群pullsecret,以禁用远程健康报告。

2.更新集群,以使用这个修改后的pullsecret。
4.3.1.禁用远程健康报告的后果 在OpenShiftContainerPlatform中,用户可以选择不报告使用信息。
但是,红帽通过连接的集群可加快对问题的反应速度,为客户提供更好支持,同时更好地了解产品升级对集群的影响。
连接的集群还可帮助简化订阅和权利过程,并让RedHatOpenShiftClusterManager服务提供集群及其订阅状态概述。
红帽强烈建议,即使需要在生产环境集群中禁用这个功能,在预生产环境集群和测试集群中启用健康和使用情况报告功能,。
这样红帽便可在您的环境中参与对OpenShiftContainerPlatform质量的审核,并对产品问题做出更快反应。
选择不使用连接的集群的一些后果包括: 如果没有提交问题单,红帽将无法监控产品升级是否成功,以及您的集群的健康状况。
红帽将无法使用配置数据来更好地分类客户问题单,无法识别客户认为比较重要的配置。
RedHatOpenShiftClusterManager将无法显示您的集群数据,包括健康和使用情况信息。
没有自动使用情况报告功能,您必须通过手动输入您的订阅授权信息。
即使在受限网络中,Telemetry和Insights数据仍可通过正确配置代理来报告。
4.3.2.修改全局集群pullsecret,以禁用远程健康报告 您可以修改现有全局集群pullsecret,以禁用远程健康报告。
该操作将同时禁用Telemetry和InsightsOperator。
先决条件您可以使用具有cluster-admin角色的用户访问集群。
流程
1.把全局集群pullsecret下载到本地文件系统。
16 第4章通过连接集群进行远程健康监控 $ocextractsecret/pull-secret-nopenshift-config--to=.
2.在文本编辑器中编辑所下载的.dockerconfigjson文件。

3.删除JSON条目,如: "":{"auth":"","email":""}
4.保存该文件。
现在,您可以更新集群,使用修改后的pullsecret。
4.3.3.更新全局集群pullsecret 您可以通过替换当前的pullsecret或附加新的pullsecret来更新集群的全局pullsecret。
重要要将集群传送到另一个所有者,您必须首先在RedHatOpenShiftClusterManager中启动传输,然后更新集群中的pullsecret。
在不在OpenShiftClusterManager中启动传输的情况下更新集群的pullsecret会导致集群停止在OpenShiftClusterManager中报告Telemetry指标。
有关传输集群所有权的更多信息,请参阅RedHatOpenShiftClusterManager文档中的"转换集群所有权"。
 警告集群资源必须调整为新的 pull secret,这样可暂时限制集群的可用性。
先决条件您可以使用具有cluster-admin角色的用户访问集群。
流程
1.可选:要将新的pullsecret附加到现有pullsecret中,请完成以下步骤:a.输入以下命令下载pullsecret:$ocgetsecret/pull-secret-nopenshift-config--template='{{index.data".dockerconfigjson"|base64decode}}'>11提供pullsecret文件的路径。
b.输入以下命令来添加新pullsecret: 17 OpenShiftContainerPlatform4.7支持 $ocregistrylogin--registry=""\1--auth-basic=":"\2--to=31提供新的registry。
2提供新registry的凭据。
3提供pullsecret文件的路径。
另外,您可以对pullsecret文件执行手动更新。

2.输入以下命令为您的集群更新全局pullsecret: $ocsetdatasecret/pull-secret-nopenshift-config--from-file=.dockerconfigjson=11提供新pullsecret文件的路径。
该更新将推广至所有节点,可能需要一些时间,具体取决于集群大小。
注意从OpenShiftContainerPlatform4.7.4开始,对全局pullsecret的更改不再触发节点排空或重启。
4.4.使用INSIGHTS发现集群中的问题 Insights会反复分析InsightsOperator发送的数据。
OpenShiftContainerPlatform用户可以在RedHatOpenShiftClusterManager中每个集群的Insights标签页中显示报告。
4.4.1.显示集群中的潜在问题 本节论述了如何在RedHatOpenShiftClusterManager中显示Insights报告。
请注意,Insights会重复分析您的集群并显示最新结果。
这些结果可能会改变,如您解决了一个问题,或发现了一个新问题时。
先决条件集群在RedHatOpenShiftClusterManager中注册。
启用了远程健康报告(这是默认设置)。
已登陆到RedHatOpenShiftClusterManager。
流程
1.点左侧面板中的Cluster菜单。

2.点集群名称显示集群详情。
18 第4章通过连接集群进行远程健康监控
3.打开集群的Insights标签页。
根据结果,标签会显示以下其中之一:Yourclusterpassedallhealthchecks,如果Insights没有发现任何问题。
Insights检测到的问题列表,按照风险进行优先级排序(低、中、重要和严重)。
Nohealthcheckstodisplay,如果Insights还没有分析集群。
这个分析会在集群安装并连接到互联网后立即开始。

4.如果这个标签中显示了问题,点条目前面的>图标查看详情。
根据具体问题,详情中可能还可会包含到红帽知识库文章的链接。
如需了解解决这个问题的信息,点Howtoremediatethisissue。
4.4.2.在web控制台中显示Insights状态 Insights会重复分析您的集群,可以在OpenShiftContainerPlatformweb控制台中显示已识别的集群潜在问题的状态。
此状态显示不同类别中的问题数量,以及RedHatOpenShiftClusterManager报告的链接。
先决条件集群在RedHatOpenShiftClusterManager中注册。
启用了远程健康报告(这是默认设置)。
已登陆到OpenShiftContainerPlatformWeb控制台。
流程
1.在OpenShiftContainerPlatformWeb控制台中进入Home→Overview。

2.点Status卡上的Insights。
弹出窗口列出了按优先级分组的潜在问题。
点独立目录或ViewallinOpenShiftContainerPlatform来显示更多信息。
4.5.在受限网络中使用远程健康报告 您可以手动收集和上传InsightsOperator存档,以便从受限网络中诊断问题。
要在受限网络中使用InsightsOperator,您必须: 创建InsightsOperator归档的副本。
将InsightsOperator存档上传到。
4.5.1.复制InsightsOperator存档 您必须创建InsightsOperator数据存储的副本,以上传到。
先决条件以cluster-admin用户身份登录OpenShiftContainerPlatform。
19 OpenShiftContainerPlatform4.7支持 流程
1.查找当前运行的InsightsOperatorpod的名称: $INSIGHTS_OPERATOR_POD=$(ocgetpods--namespace=openshift-insights-ocustomcolumns=:metadata.name--no-headers--field-selector=status.phase=Running)
2.从InsightsOperator容器复制最近的数据存档: $occpopenshift-insights/$INSIGHTS_OPERATOR_POD:/var/lib/insights-operator./insightsdata InsightsOperator最近存档可在insights-data目录中找到。
4.5.2.上传InsightsOperator存档 您可以将InsightsOperator存档手动上传到,以诊断潜在的问题。
先决条件以cluster-admin用户身份登录OpenShiftContainerPlatform。
您有一个没有互联网访问限制的工作站。
您已创建了InsightsOperator归档的副本。
流程
1.下载dockerconfig.json文件: $ocextractsecret/pull-secret-nopenshift-config--to=.
2.复制来自dockerconfig.json文件的"""auth"令牌: {"auths":{"":{"auth":"","email":"asd@"} }
3.将存档上传到: $curl-v-H"User-Agent:insights-operator/one10time200gather184a34f6a168926d93c330cluster/"-H"Authorization:Bearer"-F"upload=@;type=application/vnd.redhat.openshift.periodic+tar"/api/ingress/v1/upload 其中是集群ID,是来自pullsecret的令牌,是InsightsOperator归档的路径。
如果操作成功,该命令会返回"request_id"和"ount_number": 20 第4章通过连接集群进行远程健康监控 输出示例*Connection#0tohostleftintact{"request_id":"393a7cf1093e434ea8dd4ab3eb28884c","upload":{"ount_number":"6274079"}}% 验证步骤
1.登录到/openshift。

2.点左侧面板中的Cluster菜单。

3.要显示集群详情,点集群名称。

4.打开集群的InsightsAdvisor选项卡。
如果上传成功,标签会显示以下之一:如果InsightsAdvisor没有发现任何问题,代表您的集群已通过了所有建议。
InsightsAdvisor检测到的问题列表,按风险级别排列(低、中、重要和严重)。
21 OpenShiftContainerPlatform4.7支持 第5章收集集群数据 在提交问题单时同时提供您的集群信息,可以帮助红帽支持为您进行排除故障。
建议您提供: 使用ocadmmust-gather命令收集的数据唯一的集群ID 5.1.关于MUST-GATHER工具 ocadmmust-gatherCLI命令可收集最有助于解决问题的集群信息,包括:资源定义服务日志 默认情况下,ocadmmust-gather命令使用默认的插件镜像,并写入./must-gather.local。
另外,您可以使用适当的参数运行命令来收集具体信息,如以下部分所述: 要收集与一个或多个特定功能相关的数据,请使用--image参数和镜像,如以下部分所述。
例如: $ocadmmust-gather--image=registry.redhat.io/v-mustgather-rhel8:v4.9.0 要收集审计日志,请使用--/usr/bin/gather_audit_logs参数,如以下部分所述。
例如: $ocadmmust-gather--/usr/bin/gather_audit_logs 注意作为默认信息集合的一部分,不会收集审计日志来减小文件的大小。
当您运行ocadmmust-gather时,集群的新项目中会创建一个带有随机名称的新pod。
在该pod上收集数据,并保存至以must-gather.local开头的一个新目录中。
此目录在当前工作目录中创建。
例如: NAMESPACE NAME READYSTATUS ... openshift-must-gather-5drcjmust-gather-bklx42/2Running openshift-must-gather-5drcjmust-gather-s8sdh2/2Running ... RESTARTS
0 72s
0 72s AGE 5.1.1.为红帽支持收集您的集群数据 您可使用ocadmmust-gatherCLI命令收集有关您的集群的调试信息。
22 先决条件使用具有cluster-admin角色的用户访问集群。
已安装OpenShiftContainerPlatformCLI(oc)。
流程
1.进入要存储must-gather数据的目录。

2.运行ocadmmust-gather命令:$ocadmmust-gather 第5章收集集群数据 注意 如果此命令失败,例如,您无法在集群中调度pod,则使用ocadminspect命令来收集特定资源的信息。
请联络红帽支持以获取推荐收集的资源信息。
注意 如果集群使用受限网络,则需要执行额外的步骤。
如果您镜像的容器镜像仓库有一个信任的CA,您必须首先将这个信任的CA添加到集群中。
对于受限网络中的所有集群,在使用ocadmmust-gather命令前,需要导入默认的must-gather镜像作为一个镜像流。
$ocimport-imageis/must-gather-nopenshift
3.从工作目录中刚刚创建的must-gather目录创建一个压缩文件。
例如,在使用Linux操作系统的计算机上运行以下命令: $tarcvafmust-gather.tar.gzmust-gather.local.2289/1 1务必将must-gather-local.2289/替换为实际目录名称。

4.在红帽客户门户中为您的问题单附上压缩文件。
5.1.2.收集有关特定功能的数据 您可通过将ocadmmust-gatherCLI命令与--image或--image-stream参数结合使用来收集有关特定功能的调试信息。
must-gather工具支持多个镜像,这样您便可通过运行单个命令收集多个功能的数据。
表5.1.支持的must-gather镜像 Image 用途 registry.redhat.io/v-must-gather-rhel8:v2.6.9registry.redhat.io/openshift-serverless1/svls-must-gather-rhel8 OpenShiftVirtualization的数据收集。
OpenShiftServerless的数据收集。
23 OpenShiftContainerPlatform4.7支持 Imageregistry.redhat.io/openshift-servicemesh/istio-must-gather-rhel8 用途RedHatOpenShiftServiceMesh的数据收集。
registry.redhat.io/rhmtc/openshift-migrationmust-gather-rhel8:v1.6 MTC的数据收集。
registry.redhat.io/ocs4/ocs-must-gather-rhel8RedHatOpenShiftContainerStorage的数据收集。
registry.redhat.io/openshift-logging/clusterlogging-rhel8-operator OpenShiftLogging的数据收集。
registry.redhat.io/openshift4/ose-localstorage-mustgather-rhel8 LocalStorageOperator的数据收集。
注意要收集除特定功能数据外的默认must-gather数据,请添加--imagestream=openshift/must-gather参数。
先决条件使用具有cluster-admin角色的用户访问集群。
已安装OpenShiftContainerPlatformCLI(oc)。
流程
1.进入存储must-gather数据的目录。

2.使用一个或多个--image或--image-stream参数运行ocadmmust-gather命令。
例如,使用以下命令可收集默认集群数据和OpenShiftVirtualization特定信息: $ocadmmust-gather\--image-stream=openshift/must-gather\1--image=registry.redhat.io/v-must-gather-rhel8:v2.6.92 1默认OpenShiftContainerPlatformmust-gather镜像2OpenShiftVirtualization的must-gather镜像 您可以将must-gather工具与额外参数搭配使用,以收集集群中与OpenShiftLogging和RedHatOpenShiftLoggingOperator相关的数据。
对于OpenShiftLogging,运行以下命令: $ocadmmust-gather--image=$(oc-nopenshift-logginggetdeployment.apps/clusterlogging-operator\-ojsonpath='{.spec.template.spec.containers[?
(@.name=="cluster-loggingoperator")].image}') 24 例5.1.OpenShiftLogging的must-gather输出示例 ├──cluster-logging│├──clo││├──cluster-logging-operator-74dd5994f-6ttgt││├──clusterlogforwarder_cr││├──cr││├──csv││├──deployment││└──logforwarding_cr│├──collector││├──fluentd-2tr64│├──eo││├──csv││├──deployment││└──elasticsearch-operator-7dc7d97b9d-jb4r4│├──es││├──cluster-elasticsearch│││├──aliases│││├──health│││├──indices│││├──latest_documents.json│││├──nodes│││├──nodes_stats.json│││└──thread_pool││├──cr││├──elasticsearch-cdm-lp8l38m0-1-794d6dd989-4jxms││└──logs││├──elasticsearch-cdm-lp8l38m0-1-794d6dd989-4jxms│├──install││├──co_logs││├──install_plan││├──olmo_logs││└──subscription│└──kibana│├──cr│├──kibana-9d69668d4-2rkvz├──cluster-scoped-resources│└──core│├──nodes││├──pute.internal.yaml│└──olumes│├──-33d9381e41c1.yaml├──event-filter.html├──gather-debug.log└──namespaces ├──openshift-logging│├──apps││├──daemonsets.yaml││├──deployments.yaml││├──replicasets.yaml││└──statefulsets.yaml│├──batch││├──cronjobs.yaml││└──jobs.yaml│├──core 第5章收集集群数据 25 OpenShiftContainerPlatform4.7支持 ││├──configmaps.yaml ││├──endpoints.yaml ││├──events │││├──elasticsearch-im-app-1596020400-gm6nl.1626341a296c16a1.yaml │││├──elasticsearch-im-audit-1596020400-9l9n4.1626341a2af81bbd.yaml │││├──elasticsearch-im-infra-1596020400-v98tk.1626341a2d821069.yaml │││├──5vc.1626341a3019b238.yaml │││├──elasticsearch-im-audit-1596020400-s8d5s.1626341a31f7b315.yaml │││├──elasticsearch-im-infra-1596020400-7mgv8.1626341a35ea59ed.yaml ││├──events.yaml ││├──olumeclaims.yaml ││├──pods.yaml ││├──replicationcontrollers.yaml ││├──secrets.yaml ││└──services.yaml │├──openshift-logging.yaml │├──pods ││├──cluster-logging-operator-74dd5994f-6ttgt │││├──cluster-logging-operator ││││└──cluster-logging-operator ││││└──logs ││││├──current.log ││││├──previous.insecure.log ││││└──previous.log │││└──cluster-logging-operator-74dd5994f-6ttgt.yaml ││├──cluster-logging-operator-registry-6df49d7d4-mxxff │││├──cluster-logging-operator-registry ││││└──cluster-logging-operator-registry ││││└──logs ││││├──current.log ││││├──previous.insecure.log ││││└──previous.log │││├──cluster-logging-operator-registry-6df49d7d4-mxxff.yaml │││└──mutate-csv-and-generate-sqlite-db │││└──mutate-csv-and-generate-sqlite-db │││└──logs │││ ├──current.log │││ ├──previous.insecure.log │││ └──previous.log ││├──elasticsearch-cdm-lp8l38m0-1-794d6dd989-4jxms ││├──elasticsearch-im-app-1596030300-bpgcx │││├──elasticsearch-im-app-1596030300-bpgcx.yaml │││└──indexmanagement │││└──indexmanagement │││└──logs │││ ├──current.log │││ ├──previous.insecure.log │││ └──previous.log ││├──fluentd-2tr64 │││├──fluentd ││││└──fluentd ││││└──logs ││││├──current.log ││││├──previous.insecure.log ││││└──previous.log │││├──fluentd-2tr64.yaml 26 │││└──fluentd-init │││└──fluentd-init │││└──logs │││ ├──current.log │││ ├──previous.insecure.log │││ └──previous.log ││├──kibana-9d69668d4-2rkvz │││├──kibana ││││└──kibana ││││└──logs ││││├──current.log ││││├──previous.insecure.log ││││└──previous.log │││├──kibana-9d69668d4-2rkvz.yaml │││└──kibana-proxy │││└──kibana-proxy │││└──logs │││ ├──current.log │││ ├──previous.insecure.log │││ └──previous.log │└──route.openshift.io │└──routes.yaml └──openshift-operators-redhat ├──... 第5章收集集群数据
3.从工作目录中刚刚创建的must-gather目录创建一个压缩文件。
例如,在使用Linux操作系统的计算机上运行以下命令: $tarcvafmust-gather.tar.gzmust-gather.local.2289/11务必将must-gather-local.2289/替换为实际目录名称。

4.在红帽客户门户中为您的问题单附上压缩文件。
5.1.3.收集审计日志 您可以收集审计日志,它们是与安全相关的按时间排序的记录,记录各个用户、管理员或其他系统组件影响系统的一系列活动。
您可以收集以下的审计日志: etcd服务器esAPI服务器OpenShiftOAuthAPI服务器OpenShiftAPI服务器 流程
1.使用--/usr/bin/gather_audit_logs标志运行ocadmmust-gather命令:$ocadmmust-gather--/usr/bin/gather_audit_logs
2.从工作目录中刚刚创建的must-gather目录创建一个压缩文件。
例如,在使用Linux操作系统的 27 OpenShiftContainerPlatform4.7支持
2.从工作目录中刚刚创建的must-gather目录创建一个压缩文件。
例如,在使用Linux操作系统的计算机上运行以下命令: $tarcvafmust-gather.tar.gzmust-gather.local.24811将must-gather-local.248替换为实际目录名称。

3.在红帽客户门户中为您的问题单附上压缩文件。
5.2.获取集群ID 在向红帽支持提供信息时,提供集群的唯一标识符会很有帮助。
您可以使用OpenShiftContainerPlatformWeb控制台自动填充集群ID。
您还可以使用web控制台或OpenShiftCLI(oc)手工获取集群ID。
先决条件使用具有cluster-admin角色的用户访问集群。
访问安装的web控制台或OpenShiftCLI(oc)。
流程使用Web控制台开支持问题单并自动填充集群ID:a.从工具栏导航至(?)help→OpenSupportCase。
b.ClusterID的值会被自动填充。
使用web控制台手动获取集群ID:a.导航到Home→Dashboards→Overview。
b.该值包括在Details中的ClusterID项中。
要使用OpenShiftCLI(oc)获取集群ID,请运行以下命令:$ocgetclusterversion-ojsonpath='{.items[].spec.clusterID}{"\n"}' 5.3.关于SOSREPORT sosreport是一个从RedHatEnterpriseLinux((RHEL)和RedHatEnterpriseLinuxCoreOS(RHCOS)系统收集配置详情、系统信息和诊断数据的工具。
sosreport提供了一种标准的方法来收集有关节点的诊断信息,然后可以提供给红帽支持以进行诊断。
在一些情况下,红帽支持可能会要求您为特定OpenShiftContainerPlatform节点收集sosreport归档。
例如,有时可能需要查看系统日志或其他没有包括在ocadmmust-gather输出的针对于节点的特定数据。
5.4.为OPENSHIFTCONTAINERPLATFORM集群节点生成SOSREPORT归档 为OpenShiftContainerPlatform4.7集群节点生成sosreport的建议方法是通过debugpod。
28 第5章收集集群数据 先决条件您可以使用具有cluster-admin角色的用户访问集群。
您需要有到主机的SSH访问权限。
已安装OpenShiftCLI(oc)。
您有红帽标准订阅或高级订阅。
您有红帽客户门户网站帐户。
您已有一个红帽支持问题单ID。
流程
1.获取集群节点列表:$ocgetnodes2.在目标节点上进入一个debug会话。
此步骤被实例化为一个名为-debug的debugpod:$ocdebugnode/my-cluster-node要在目标节点上进入带有NoExecute效果的debug会话,请向dummy命名空间添加一个容限,并在dummy命名空间中启动debugpod:$ocnew-projectdummy $ocpatchnamespacedummy--type=merge-p'{"metadata":{"annotations":{"es.io/defaultTolerations":"[{\"operator\":\"Exists\"}]"}}}' $ocdebugnode/my-cluster-node3.将/host设为debugshell中的根目录。
debugpod在pod中的/host中挂载主机的root文件系 统。
将根目录改为/host,您可以运行主机可执行路径中包含的二进制文件:#chroot/host 注意运行RedHatEnterpriseLinuxCoreOS(RHCOS)的OpenShiftContainerPlatform4.7集群节点不可变,它依赖于Operator来应用集群更改。
不建议使用SSH访问集群节点,节点将会标记为essed污点。
但是,如果OpenShiftContainerPlatformAPI不可用,或kubelet在目标节点上无法正常工作,oc操作将会受到影响。
在这种情况下,可以使用sshcore@..来访问节点。

4.启动toolbox容器,其中包括运行sosreport所需的二进制文件和插件:#toolbox 29 OpenShiftContainerPlatform4.7支持 注意如果一个已存在的toolboxpod已在运行,则toolbox命令会输出'toolbox-'alreadyexists.Tryingtostart…​.使用podmanrmtoolbox-删除正在运行的toolbox容器,并生成新的toolbox容器以避免sosreport插件出现问题。

5.收集sosreport归档。
a.运行sosreport命令并启用crio.all和crio.logsCRI-O容器引擎sosreport插件:#sosreport-kcrio.all=on-kcrio.logs=on11-k可让您在默认值之外定义sosreport插件参数。
b.提示后按Enter键继续。
c.提供红帽支持问题单ID。
sosreport将ID添加到存档的文件名中。
d.sosreport输出提供了归档的位置和checksum。
以下示例输出引用支持问题单ID01234567: Yoursosreporthasbeengeneratedandsavedin:/host/var/tmp/sosreport-my-cluster-node-01234567-2020-05-28-eyjknxt.tar.xz1 Thechecksumis:382ffc167510fd71b4f12a4f40b97a4e1sosreport归档的文件路径在chroot环境之外,因为toolbox容器会在/host挂载主机 的根目录。

6.使用以下方法之一为红帽支持提供sosreport归档以供分析。
将文件直接从OpenShiftContainerPlatform集群上传到现有红帽支持问题单。
a.在toolbox容器内,运行redhat-support-tool将存档直接附加到现有红帽支持问题单中。
这个示例使用问题单ID01234567:#redhat-support-tooladdattachment-c01234567/host/var/tmp/my-sosreport.tar.xz11toolbox容器将主机的根目录挂载到/host。
当指定要通过redhat-support-tool命令上传的文件时,使用toolbox容器的根目录(包括/host/)的绝对路径。
将文件上传到现有红帽支持问题单中。
a.运行ocdebugnode/命令调整sosreport归档,并将输出重定向到文件 中。
此命令假设您已退出以前的ocdebug会话:$ocdebugnode/my-cluster-node--bash-c'cat/host/var/tmp/sosreport-my-clusternode-01234567-2020-05-28-eyjknxt.tar.xz'>/tmp/sosreport-my-cluster-node01234567-2020-05-28-eyjknxt.tar.xz1 1debug容器将主机的根目录挂载到/host。
在指定用于连接的目标文件时,引用debug容器的根目录的绝对路径,包括/host。
注意 30 第5章收集集群数据 注意运行RedHatEnterpriseLinuxCoreOS(RHCOS)的OpenShiftContainerPlatform4.7集群节点不可变,它依赖于Operator来应用集群更改。
不建议使用scp从集群节点传输sosreport归档,这会使节点出现essed污点。
但是,如果OpenShiftContainerPlatformAPI不可用,或kubelet在目标节点上无法正常工作,oc操作将会受到影响。
在这种情况下,可以通过运行scpcore@..:从节点复制sosreport归档文件。
b.进入/support/cases/中的现有支持问题单。
c.选择Attachfiles并按提示上传该文件。
5.5.查询BOOTSTRAP节点日志 如果遇到与bootstrap相关的问题,可以从bootstrap节点收集bootkube.servicejournald单元日志和容器日志。
先决条件具有到bootstrap节点的SSH访问权限。
具有bootstrap节点的完全限定域名。
流程
1.在OpenShiftContainerPlatform安装过程中,查询bootstrap节点的bootkube.servicejournald单元日志。
替换为bootstrap节点的完全限定域名:$sshcore@journalctl-b-f-ubootkube.service 注意bootstrap节点上的bootkube.service日志会输出etcdconnectionrefused错误,这表示bootstrap服务器无法在controlplane节点(也称为master节点)上连接到etcd。
在各个controlplane节点上启动etcd且节点已加入集群后,这个错误应该会停止。

2.使用bootstrap节点上的podman从bootstrap节点容器收集日志。
替换为bootstrap节点的完全限定域名:$sshcore@'forpodin$(sudopodmanps-a-q);dosudopodmanlogs$pod;done' 5.6.查询集群节点JOURNAL日志 您可以在独立集群节点的/var/log中收集journald单元日志和其他日志。
先决条件 31 OpenShiftContainerPlatform4.7支持 您可以使用具有cluster-admin角色的用户访问集群。
API服务仍然可以正常工作。
已安装OpenShiftCLI(oc)。
您需要有到主机的SSH访问权限。
流程
1.查询OpenShiftContainerPlatform集群节点的kubeletjournald单元日志。
以下示例仅查询controlplane节点(也称为master节点): $ocadmnode-logs--role=master-ukubelet1 1根据情况替换kubelet以查询其他单元日志。

2.从集群节点上/var/log/下的特定子目录收集日志。
a.获取/var/log/子目录中所含的日志列表。
以下示例列出所有controlplane节点上的/var/log/openshift-apiserver/中的文件: $ocadmnode-logs--role=master--path=openshift-apiserver b.检查/var/log/子目录中的特定日志。
以下示例输出来自所有controlplane节点的/var/log/openshift-apiserver/audit.log内容: $ocadmnode-logs--role=master--path=openshift-apiserver/audit.log c.如果API无法正常工作,请使用SSH来查看每个节点上的日志。
以下示例是/var/log/openshift-apiserver/audit.log的尾部的内容: $sshcore@..sudotail-f/var/log/openshift-apiserver/audit.log 注意运行RedHatEnterpriseLinuxCoreOS(RHCOS)的OpenShiftContainerPlatform4.7集群节点不可变,它依赖于Operator来应用集群更改。
不建议使用SSH访问集群节点,节点将会标记为essed污点。
在尝试通过SSH收集诊断数据前,请运行ocadmmustgather和其他oc命令看它们是否可以提供足够的数据。
但是,如果OpenShiftContainerPlatformAPI不可用,或kubelet在目标节点上无法正常工作,oc操作将会受到影响。
在这种情况下,可以使用sshcore@..来访问节点。
5.7.从OPENSHIFTCONTAINERPLATFORM节点或容器收集网络追踪(TRACE) 在调查与网络相关的OpenShiftContainerPlatform问题时,红帽可能会从特定的OpenShiftContainerPlatform集群节点或从特定容器请求网络数据包追踪。
在OpenShiftContainerPlatform中捕获网络trace的建议方法是通过debugpod。
32 第5章收集集群数据 先决条件您可以使用具有cluster-admin角色的用户访问集群。
已安装OpenShiftCLI(oc)。
您有红帽标准订阅或高级订阅。
您有红帽客户门户网站帐户。
您已有一个红帽支持问题单ID。
您需要有到主机的SSH访问权限。
流程
1.获取集群节点列表:$ocgetnodes2.在目标节点上进入一个debug会话。
此步骤被实例化为一个名为-debug的debugpod:$ocdebugnode/my-cluster-node3.将/host设为debugshell中的根目录。
debugpod在pod中的/host中挂载主机的root文件系统。
将根目录改为/host,您可以运行主机可执行路径中包含的二进制文件:#chroot/host 注意运行RedHatEnterpriseLinuxCoreOS(RHCOS)的OpenShiftContainerPlatform4.7集群节点不可变,它依赖于Operator来应用集群更改。
不建议使用SSH访问集群节点,节点将会标记为essed污点。
但是,如果OpenShiftContainerPlatformAPI不可用,或kubelet在目标节点上无法正常工作,oc操作将会受到影响。
在这种情况下,可以使用sshcore@..来访问节点。

4.在chroot环境控制台中获取节点接口名称:#ipad5.启动toolbox容器,其中包括运行sosreport所需的二进制文件和插件:#toolbox 注意如果一个已存在的toolboxpod已在运行,则toolbox命令会输出'toolbox-'alreadyexists.Tryingtostart…​.要避免tcpdump出现问题,请使用podmanrmtoolbox-删除正在运行的toolbox容器,并生成新toolbox容器。
33 OpenShiftContainerPlatform4.7支持
6.在集群节点中启动tcpdump会话,并将输出重定向到捕获文件中。
这个示例使用ens5作为接口名称: $tcpdump-nn-s0-iens5-w/host/var/tmp/my-cluster-node_$(date+%d_%m_%Y%H_%M_%S-%Z).pcap11tcpdump捕获文件路径在chroot环境之外,因为toolbox容器会在/host中挂载主机的根 目录。

7.如果节点上的特定容器需要tcpdump捕获,请按照以下步骤操作。
a.确定目标容器ID。
chroothost命令先于这一步中的crictl命令,因为toolbox容器在/host中挂载主机的根目录:#chroot/hostcrictlps b.确定容器的进程ID。
在本例中,容器ID是a7fe32346b120:#chroot/hostcrictlinspect--outputyamla7fe32346b120|grep'pid'|awk'{print$2}' c.在容器上启动tcpdump会话,并将输出重定向到捕获文件中。
本例使用49628作为容器的进程ID,ens5是接口名称。
nsenter命令进入目标进程的命名空间并在命名空间中运行命令。
因为本例中的目标进程是一个容器的进程ID,tcpdump命令从主机在容器的命名空间中运行:#nsenter-n-t49628--tcpdump-nn-iens5-w/host/var/tmp/my-cluster-node-mycontainer_$(date+%d_%m_%Y-%H_%M_%S-%Z).pcap.pcap11tcpdump捕获文件路径在chroot环境之外,因为toolbox容器会在/host中挂载主机的根目录。

8.使用以下方法之一向红帽支持提供tcpdump捕获文件进行分析。
将文件直接从OpenShiftContainerPlatform集群上传到现有红帽支持问题单。
a.在toolbox容器内,运行redhat-support-tool将该文件直接附加到现有红帽支持问题单中。
这个示例使用问题单ID01234567:#redhat-support-tooladdattachment-c01234567/host/var/tmp/my-tcpdumpcapture-file.pcap11toolbox容器将主机的根目录挂载到/host。
当指定要通过redhat-support-tool命令上传的文件时,使用toolbox容器的根目录(包括/host/)的绝对路径。
将文件上传到现有红帽支持问题单中。
a.运行ocdebugnode/命令调整sosreport归档,并将输出重定向到文件 中。
此命令假设您已退出以前的ocdebug会话:$ocdebugnode/my-cluster-node--bash-c'cat/host/var/tmp/my-tcpdump-capturefile.pcap'>/tmp/my-tcpdump-capture-file.pcap1 34 第5章收集集群数据 1debug容器将主机的根目录挂载到/host。
在指定用于连接的目标文件时,引用debug容器的根目录的绝对路径,包括/host。
注意运行RedHatEnterpriseLinuxCoreOS(RHCOS)的OpenShiftContainerPlatform4.7集群节点不可变,它依赖于Operator来应用集群更改。
不建议使用scp从集群节点传输tcpdump捕获文件,这会使节点出现essed污点。
但是,如果OpenShiftContainerPlatformAPI不可用,或kubelet在目标节点上无法正常工作,oc操作将会受到影响。
在这种情况下,可以运行scpcore@..:从一个节点复制tcpdump捕获文件。
b.进入/support/cases/中的现有支持问题单。
c.选择Attachfiles并按提示上传该文件。
5.8.为红帽支持提供诊断数据 在解决OpenShiftContainerPlatform问题时,红帽可能会要求您将诊断数据上传到支持问题单中。
文件可以通过红帽客户门户网站或使用redhat-support-tool命令直接从OpenShiftContainerPlatform集群上传到支持问题单。
先决条件您可以使用具有cluster-admin角色的用户访问集群。
您需要有到主机的SSH访问权限。
已安装OpenShiftCLI(oc)。
您有红帽标准订阅或高级订阅。
您有红帽客户门户网站帐户。
您已有一个红帽支持问题单ID。
流程通过红帽客户门户网站将诊断数据上传到现有红帽支持问题单中。

1.使用ocdebugnode/命令调整一个OpenShiftContainerPlatform节点中包含的诊断文件,并将输出重定向到文件中。
以下示例将debug容器中的/host/var/tmp/mydiagnostic-data.tar.gz复制到/var/tmp/my-diagnostic-data.tar.gz:$ocdebugnode/my-cluster-node--bash-c'cat/host/var/tmp/my-diagnostic-data.tar.gz'>/var/tmp/my-diagnostic-data.tar.gz11debug容器将主机的根目录挂载到/host。
在指定用于连接的目标文件时,引用debug容器的根目录的绝对路径,包括/host。
注意 35 OpenShiftContainerPlatform4.7支持 注意运行RedHatEnterpriseLinuxCoreOS(RHCOS)的OpenShiftContainerPlatform4.7集群节点不可变,它依赖于Operator来应用集群更改。
不建议使用scp从集群节点传输文件,这会使节点出现essed污点。
但是,如果OpenShiftContainerPlatformAPI不可用,或kubelet在目标节点上无法正常工作,oc操作将会受到影响。
在这种情况下,可以使用scpcore@..:从一个节点复制诊断文件。

2.进入/support/cases/中的现有支持问题单。

3.选择Attachfiles并按提示上传该文件。
将诊断数据直接从OpenShiftContainerPlatform集群上传到现有红帽支持问题单中。

1.获取集群节点列表: $ocgetnodes
2.在目标节点上进入一个debug会话。
此步骤被实例化为一个名为-debug的debugpod:$ocdebugnode/my-cluster-node
3.将/host设为debugshell中的根目录。
debugpod在pod中的/host中挂载主机的root文件系统。
将根目录改为/host,您可以运行主机可执行路径中包含的二进制文件:#chroot/host 注意运行RedHatEnterpriseLinuxCoreOS(RHCOS)的OpenShiftContainerPlatform4.7集群节点不可变,它依赖于Operator来应用集群更改。
不建议使用SSH访问集群节点,节点将会标记为essed污点。
但是,如果OpenShiftContainerPlatformAPI不可用,或kubelet在目标节点上无法正常工作,oc操作将会受到影响。
在这种情况下,可以使用sshcore@..来访问节点。

4.启动toolbox容器,其中包含运行redhat-support-tool所需的二进制文件:#toolbox 注意如果一个已存在的toolboxpod已在运行,则toolbox命令会输出'toolbox-'alreadyexists.Tryingtostart…​.使用podmanrmtoolbox-删除正在运行的toolbox容器,并生成新的toolbox容器以避免出现问题。
a.运行redhat-support-tool将debugpod的文件直接附加到现有的红帽支持问题单中。
这个示例使用支持问题单ID'01234567'和示例文件路径/host/var/tmp/my-diagnosticdata.tar.gz: 36 第5章收集集群数据 #redhat-support-tooladdattachment-c01234567/host/var/tmp/my-diagnosticdata.tar.gz11toolbox容器将主机的根目录挂载到/host。
当指定要通过redhat-support-tool命 令上传的文件时,使用toolbox容器的根目录(包括/host/)的绝对路径。
5.9.关于TOOLBOX toolbox是一个在RedHatEnterpriseLinuxCoreOS(RHCOS)系统上启动容器的工具。
该工具主要用于启动包含运行命令(如sosreport和redhat-support-tool)所需的二进制文件和插件的容器。
toolbox容器的主要目的是收集诊断信息并将其提供给红帽支持。
但是,如果需要额外的诊断工具,您可以添加RPM软件包或运行标准支持工具镜像的替代镜像。
将软件包安装到toolbox容器默认情况下,运行toolbox命令会启动带有registry.redhat.io/rhel8/support-tools:latest镜像的容器。
该镜像包含最常用的支持工具。
如果需要一个不是镜像的一部分的支持工具来收集特定于具体节点的数据,可以安装额外的软件包。
先决条件已使用ocdebugnode/命令访问节点。
流程
1.将/host设为debugshell中的根目录。
debugpod在pod中的/host中挂载主机的root文件系统。
将根目录改为/host,您可以运行主机可执行路径中包含的二进制文件:#chroot/host2.启动toolbox容器:#toolbox3.安装额外的软件包,如wget:#dnfinstall-y 使用toolbox启动备用镜像默认情况下,运行toolbox命令会启动带有registry.redhat.io/rhel8/support-tools:latest镜像的容器。
您可以通过创建.toolboxrc文件并指定要运行的镜像来启动其他镜像。
先决条件已使用ocdebugnode/命令访问节点。
流程
1.将/host设为debugshell中的根目录。
debugpod在pod中的/host中挂载主机的root文件系统。
将根目录改为/host,您可以运行主机可执行路径中包含的二进制文件: 37 OpenShiftContainerPlatform4.7支持 #chroot/host2.在root用户的主目录中,创建一个.toolboxrc文件: #vi~/.toolboxrc REGISTRY=quay.io
1 IMAGE=fedora/fedora:33-x86_642 TOOLBOX_NAME=toolbox-fedora-333 1可选:指定替代容器registry。
2指定要启动的替代镜像。
3可选:指定toolbox容器的替代名称。

3.使用备用镜像启动toolbox容器:#toolbox 注意如果一个已存在的toolboxpod已在运行,则toolbox命令会输出'toolbox-'alreadyexists.Tryingtostart…​.使用podmanrmtoolbox-删除正在运行的toolbox容器,并生成新的toolbox容器以避免sosreport插件出现问题。
38 第6章集群规格总结 第6章集群规格总结 6.1.通过CLUSTERVERSION总结集群规格 您可以通过查询clusterversion资源来获取一个OpenShiftContainerPlatform集群规格的总结数据。
先决条件 您可以使用具有cluster-admin角色的用户访问集群。
已安装OpenShiftCLI(oc)。
流程
1.查询集群版本、可用性、运行时间以及常规状态: $ocgetclusterversion2.获取集群规格、更新可用性和更新历史记录的详细概述: $ocdescribeclusterversion 39 OpenShiftContainerPlatform4.7支持 第7章故障排除 7.1.安装故障排除 7.1.1.确定安装问题在哪里发生 当对OpenShiftContainerPlatform安装问题进行故障排除时,可以监控安装日志来确定在哪个阶段出现问题。
然后,检索与该阶段相关的诊断数据。
OpenShiftContainerPlatform安装过程包括以下阶段:
1.创建Ignition配置文件。

2.启动引导计算机并开始托管要启动的controlplane机器(也称为master机器)所需的远程资 源。
3.controlplane机器从bootstrap机器获取远程资源并完成启动。
4.controlplane机器使用bootstrap机器组成etcd集群。
5.bootstrap机器使用新的etcd集群启动临时escontrolplane。

6.临时controlplane将生产环境controlplane调度到controlplane机器。

7.临时controlplane关机,并将控制权交给生产环境controlplane。
8.bootstrap机器将OpenShiftContainerPlatform组件添加到生产环境controlplane。

9.安装程序关闭bootstrap机器。
10.controlplane设置worker节点。
11.controlplane以一组Operator的形式安装其他服务。
12.集群下载并配置日常运作所需的其余组件,包括在受支持的环境中创建worker机器。
7.1.2.用户置备的基础架构安装注意事项 默认安装方法使用安装程序置备的基础架构。
对于安装程序置备的基础架构的集群,OpenShiftContainerPlatform可以管理集群的所有方面,包括操作系统本身。
若有可能,可以使用此功能来避免置备和维护集群基础架构。
您也可以在自己提供的基础架构上安装OpenShiftContainerPlatform4.7。
如果您使用这个安装方法,请完全遵循用户置备的基础架构安装文档中的内容。
另外,在安装前请考虑以下事项: 查看RedHatEnterpriseLinux(RHEL)生态系统中的内容来决定您所使用的服务器硬件或虚拟环境可以获得的RedHatEnterpriseLinuxCoreOS(RHCOS)对其支持的级别。
很多虚拟化和云环境需要在客户端操作系统中安装代理。
确保将这些代理作为通过守护进程集部署的容器化工作负载安装。
如果要启用动态存储、按需服务路由、节点主机名到es主机名解析以及集群自动扩展等功能,请安装云供应商集成。
注意 40 第7章故障排除 注意不可能在混合有不同云供应商,或跨多个物理或虚拟平台的OpenShiftContainerPlatform环境中启用云供应商集成。
节点生命周期控制器不允许将来自现有供应商外部的节点添加到集群中,且无法指定多个云供应商集成。
如果要使用机器集或自动扩展来自动置备OpenShiftContainerPlatform集群节点,则需要针对于供应商的MachineAPI实现。
检查您所选云供应商是否提供了将Ignition配置文件注入主机的方法作为其初始部署的一部分。
如果不这样做,则需要使用HTTP服务器托管Ignition配置文件。
解决Ignition配置文件问题的步骤会因部署了这两种方法的不同而有所不同。
如果要利用可选的框架组件,如嵌入式容器registry、ElasticSearch或Prometheus,则需要手动置备存储。
除非明确进行了配置,用户置备的基础架构安装中不定义默认存储类。
在高可用性OpenShiftContainerPlatform环境中,需要一个负载均衡器来在所有controlplane节点(也称为master节点)之间分发API请求。
您可以使用任何满足OpenShiftContainerPlatformDNS路由和端口要求的基于TCP的负载平衡解决方案。
7.1.3.在OpenShiftContainerPlatform安装前检查负载均衡器配置 在开始OpenShiftContainerPlatform安装前,请检查您的负载均衡器配置。
先决条件已根据选择配置了外部负载均衡器,准备OpenShiftContainerPlatform安装。
以下示例基于使用HAProxy为集群提供负载均衡服务的RedHatEnterpriseLinux(RHEL)主机。
为准备OpenShiftContainerPlatform安装已配置了DNS准备。
有到负载均衡器的SSH访问权限。
流程
1.检查haproxysystemd服务是否活跃: $ssh@systemctlstatushaproxy
2.验证负载均衡器是否在监听所需端口。
以下示例引用端口80、443、6443和22623。
对于在RedHatEnterpriseLinux(RHEL)6上运行的HAProxy实例,请使用stat命令验证端口状态: $ssh@stat-nltupe|grep-E':80|:443|:6443|:22623' 对于在RedHatEnterpriseLinux(RHEL)7或8上运行的HAProxy实例,请使用ss命令验证端口状态: $ssh@ss-nltupe|grep-E':80|:443|:6443|:22623' 注意 41 OpenShiftContainerPlatform4.7支持 注意红帽建议在RedHatEnterpriseLinux(RHEL)7或更高版本中使用ss命令而不是stat。
SS由iproute软件包提供。
有关ss命令的详情请参考RedHatEnterpriseLinux(RHEL)7性能调节指南。

3.检查通配符DNS记录是否被解析为负载均衡器:$dig@ 7.1.4.指定OpenShiftContainerPlatform安装程序日志级别 默认情况下,OpenShiftContainerPlatform安装程序日志级别设置为info。
如果在诊断失败的OpenShiftContainerPlatform安装时需要更详细的日志记录,您可以在重新开始安装时将openshiftinstall日志级别提高为debug。
先决条件有访问安装主机的访问权限。
流程在启动安装时将安装日志级别设置为debug:$./openshift-install--dirwait-forplete--log-leveldebug11可能的日志级别包括info、warn、error和debug。
7.1.5.openshift-install命令问题故障排除 如果您在运行openshift-install命令时遇到问题,请检查以下内容:安装过程在Ignition配置文件创建后24小时内启动。
运行以下命令时创建Ignition文件:$./openshift-installcreateignition-configs--dir=./install_dirinstall-config.yaml文件与安装程序位于同一个目录中。
如果使用./openshift-install--dir选项声明了其他不同的安装路径,请验证install-config.yaml文件是否存在于该目录中。
7.1.6.监控安装进度 您可以在OpenShiftContainerPlatform安装过程中监控高级别安装、bootstrap和controlplane日

标签: #怎么做 #web #cvt #文件 #图纸 #cydia #怎么回事 #长城