我有一个树,其节点存储-1或非负整数,这是一个顶点的名称。每个顶点在树中最多出现一次。以下函数是我的代码中的瓶颈:
版本A:
void node_vertex_members(node *A, vector<int> *vertexList){
if(A->contents != -1){
vertexList->push_back(A->contents);
}
else{
for(int i=0;i<A->children.size();i++){
node_vertex_members(A->children[i],vertexList);
}
}
}
版本B:
void node_vertex_members(node *A, vector<int> *vertexList){
stack<node*> q;
q.push(A);
while(!q.empty()){
int x = q.top()->contents;
if(x != -1){
vertexList->push_back(x);
q.pop();
}
else{
node *temp = q.top();
q.pop();
for(int i=temp->children.size()-1; i>=0; --i){
q.push(temp->children[i]);
}
}
}
}
出于某种原因,版本B的运行时间比版本A长得多,这是我没想到的。编译器可以做什么比我的代码更聪明?换句话说,我在做什么这么低效?同样让我感到困惑的是,如果我尝试检查版本B之类的东西是否在将它们放入堆栈之前孩子的内容是-1,它会显着减慢(几乎是3倍)。作为参考,我在Cygwin中使用g ++和-O3选项。
更新
我能够使用以下代码(版本C)匹配递归版本:
node *node_list[65536];
void node_vertex_members(node *A, vector<int> *vertex_list){
int top = 0;
node_list[top] = A;
while(top >= 0){
int x = node_list[top]->contents;
if(x != -1){
vertex_list->push_back(x);
--top;
}
else{
node* temp = node_list[top];
--top;
for(int i=temp->children.size()-1; i>=0; --i){
++top;
node_list[top] = temp->children[i];
}
}
}
}
明显的缺点是代码长度和幻数(以及相关的硬限制)。而且,正如我所说,这只与A版本的性能相匹配。我当然会坚持使用递归版本,但我现在很满意它基本上是STL开销咬我。
答案 0 :(得分:13)
版本A有一个显着的优点:代码大小要小得多。
版本B有一个明显的缺点:堆栈元素的内存分配。考虑到堆栈开始为空并且逐个推入元素。每隔一段时间,就必须为潜在的双端队列进行新的分配。这是一项昂贵的操作,每次调用函数时可能会重复几次。
编辑:这是g++ -O2 -S
在Mac OS上使用GCC 4.7.3生成的程序集,通过c++filt
运行并由我注释:
versionA(node*, std::vector<int, std::allocator<int> >*):
LFB609:
pushq %r12
LCFI5:
movq %rsi, %r12
pushq %rbp
LCFI6:
movq %rdi, %rbp
pushq %rbx
LCFI7:
movl (%rdi), %eax
cmpl $-1, %eax ; if(A->contents != -1)
jne L36 ; vertexList->push_back(A->contents)
movq 8(%rdi), %rcx
xorl %r8d, %r8d
movl $1, %ebx
movq 16(%rdi), %rax
subq %rcx, %rax
sarq $3, %rax
testq %rax, %rax
jne L46 ; i < A->children.size()
jmp L35
L43: ; for(int i=0;i<A->children.size();i++)
movq %rdx, %rbx
L46:
movq (%rcx,%r8,8), %rdi
movq %r12, %rsi
call versionA(node*, std::vector<int, std::allocator<int> >*)
movq 8(%rbp), %rcx
leaq 1(%rbx), %rdx
movq 16(%rbp), %rax
movq %rbx, %r8
subq %rcx, %rax
sarq $3, %rax
cmpq %rbx, %rax
ja L43 ; continue
L35:
popq %rbx
LCFI8:
popq %rbp
LCFI9:
popq %r12
LCFI10:
ret
L36: ; vertexList->push_back(A->contents)
LCFI11:
movq 8(%rsi), %rsi
cmpq 16(%r12), %rsi ; vector::size == vector::capacity
je L39
testq %rsi, %rsi
je L40
movl %eax, (%rsi)
L40:
popq %rbx
LCFI12:
addq $4, %rsi
movq %rsi, 8(%r12)
popq %rbp
LCFI13:
popq %r12
LCFI14:
ret
L39: ; slow path for vector to expand capacity
LCFI15:
movq %rdi, %rdx
movq %r12, %rdi
call std::vector<int, std::allocator<int> >::_M_insert_aux(__gnu_cxx::__normal_iterator<int*, std::vector<int, std::allocator<int> > >, int const&)
jmp L35
这是相当简洁的,一眼就看起来相当没有“减速带”。当我使用-O3编译时,我得到了一个不圣洁的混乱,展开的循环和其他有趣的东西。我现在没有时间注释版本B,但足以说它由于许多deque函数和更多内存的涂鸦而更复杂。毫不奇怪,它的速度较慢。
答案 1 :(得分:3)
版本B中q
的最大大小明显大于版本A中的最大递归深度。这可能会使您的缓存性能效率降低。
(版本A:深度为log(N)/log(b)
,版本B:队列长度达到b*log(N)/log(b)
)
答案 2 :(得分:1)
第二个代码较慢,因为它除了返回的集合外还维护着第二个动态集数据结构。这涉及更多的内存分配,更多的对象初始化,更多的列表插入和删除。
然而,第二个代码中的算法更灵活:它可以通过简单的修改来为您提供广度优先遍历而不是深度优先,而递归仅执行深度优先遍历。 (嗯,它可以先深入,但改变并不是那么微不足道;最后请看评论。)
由于作业是遍历所有内容并收集一些节点,因此假设您不需要深度优先顺序,深度优先遍历可能更好。
但是在搜索满足某些条件的节点的情况下,实现广度优先搜索可能更合适。如果树是无限的(因为它不是数据结构,而是可能性的搜索树,例如游戏中的未来移动或其他),它可能难以处理来做深度优先,因为没有底部。在某些情况下,希望找到一个靠近根的节点,而不仅仅是任何节点。深度优先搜索可能需要很长时间才能找到靠近树根的节点。如果树很深,但通常发现所需的节点离根不远,深度优先搜索会浪费很多时间,即使实现它的递归机制很快。
递归可以通过迭代加深来进行广度优先:递归到最大深度1,然后再次从顶部递归,这次最大深度为2,依此类推。基于队列的遍历只需要改变它将节点添加到工作队列的顺序。