python删除<p> </p>中的文本

时间:2011-04-13 17:13:20

标签: python regex string

我想删除<p>标记内的文本以获取html文本块。我试图标准化一些文本并删除所有类,对齐和其他信息。我能找到的每个例子似乎都涉及剥离html,我不想剥离标签。我只是想让它们变得清晰。

所以,如果我有这样的事情:

<p class='MsoBodyText' align='left'>
some paragraph blah blah blah
</p>

<p class='SomeClassIDontWant' align='right'>
some other paragraph blah blah blah
</p>

我想回来:

<p>
some paragraph blah blah blah
</p>

<p>
some other paragraph blah blah blah
</p>

4 个答案:

答案 0 :(得分:6)

使用库来解析HTML,例如Beautiful Soup或类似的替代方法。 Regex is not powerful enough to correctly parse HTML

@Mark提出了一个有效的观点,在这种特殊情况下,一个简单的正则表达式应该可以工作,因为你没有使用标记匹配等进行完全解析。我仍然认为当你使用这些解析库时,熟悉这些解析库是一个好习惯。发现自己需要更复杂的操作。

<p title="1 > 0">Test</p>

我相信是有效的HTML。 Chrome至少接受它,我相信其他浏览器也会这样做。

答案 1 :(得分:3)

使用BeautifulSoup非常简单,您可以从字符串创建BeautifulSoup元素,然后对于该对象中的每个元素,将属性列表设置为空列表,如下所示:

from BeautifulSoup import *
parsed_html = BeautifulSoup(your_html)
for elem in parsed_html:
   if not isinstance(elem, NavigableString): #You need to know that it is a node and not text
       elem.attrs = []
print parsed_html # It is clean now

有关BeautifulSoup的更多信息,您可以看到BeautifulSoup documentation

答案 2 :(得分:1)

在分隔符等情况下,正则表达式会遗漏。您应该使用HTML解析器,最常见的是美味汤。

另请注意,您需要处理Unicode以及简单的str。

以下是我的解决方案:

from BeautifulSoup import BeautifulSoup, Tag

def clear_p_tags(html_str):
    """ Works well both for unicode as well as str """
    html = BeautifulSoup(html_str)

    for elem in parsed_html:
        if type(elem) is Tag: elem.attrs = []
    return type(html_str)(html)


def test_p_clear(str_data):

    html_str = data
    html_unicode = unicode(data)

    clear_p_html_str = clear_p_tags(html_str)
    clear_p_html_unicode = clear_p_tags(html_unicode)

    print type(clear_p_html_str)
    print clear_p_html_str

    print type(clear_p_html_unicode)
    print clear_p_html_unicode

data = """
<a href="hello.txt"> hello </a>
<p class='MsoBodyText' align='left'>
some paragraph blah blah blah
</p>

<p class='SomeClassIDontWant' align='right'>
some other paragraph blah blah blah
</p>
"""

test_p_clear(data)

答案 3 :(得分:0)

我全都是Davy8的回答。您也可以查看lxml.html

如果你仍然想使用正则表达式......你应该使用类似的东西:

re.sub(r'<p [^>]*?>', r'<p>', foo)