在分析选项之前,我们需要了解Spark中Worker的角色和功能。Spark是一个大数据处理框架,其架构包括Driver、Master和Worker节点。Worker节点的主要职责是执行分配给它的任务,并管理其自身的资源。
现在,让我们分析每个选项:
A: 管理当前节点内存
- 这是正确的。Worker节点负责管理和分配其所在节点的内存资源,以便有效执行任务。
B: 不会运行业务逻辑代码
- 这是错误的。Worker节点实际上会运行具体的业务逻辑代码,因为它执行的是由Driver程序分配的任务,这些任务包含了业务逻辑。
C: 会运行业务逻辑代码
- 这是正确的。正如前面所述,Worker节点执行任务,其中包含业务逻辑代码。
D: 接收master分配过来的资源指令
- 这是正确的。Worker节点从Master节点接收资源分配和任务指令,以便执行具体的计算任务。
因此,选项B描述错误。Worker节点确实会运行业务逻辑代码。正确答案是B。