文字列入力の検証やテキストマイニングのような自然言語処理で広く使用されている正規表現ですが、Pythonには標準ライブラリのreモジュールで提供されています。
Contents
Pythonの正規表現
正規表現
正規表現はメタ文字と呼ばれる文字を利用して文字列の検索パターンを表すことができます。任意のテキストの中からこの検索パターンに合致する文字列を抽出したり置換することができます。例えば、テキストの改行のみの行にマッチさせたい場合、'^\n$'と記述します。^は行頭、\nは改行を表します。学習の前に、基本的な正規表現について簡単に俯瞰しておきましょう。簡単な例を以下に示します。
特殊文字 | 意味 |
---|---|
. | 改行以外の任意の文字 |
^ | 文字列先頭 |
$ | 文字列末尾 |
ab|cd | 文字列abか文字列cdのどちらかにマッチ(いずれか) |
[ab-d] | aとb〜dにマッチ(範囲指定) |
[^ab-d] | aとb〜d以外にマッチ(否定) |
.(abc). | xabcxなどにマッチ(グループ化) |
[ab]{2} | aかbが2回繰り返される |
[ab]{2,5} | aかbが2〜5回繰り返される |
[ab]{2,} | aかbが2回以上繰り返される |
+ | 直前の文字が1回以上出現 |
* | 直前の文字が0回以上出現 |
? | 直前の文字が0回もしくは1回出現 |
エスケープ
特殊文字を表す場合には\記号を使用します。また、\自身のエスケープにも\を使用します。簡単な例を以下に示します。
例 | 意味 |
---|---|
\d | 任意の10進数文字 |
\D | 任意の非10進数文字 |
\w | 任意の単語文字([a-zA-Z0-9_] と等価) |
\W | 任意の非単語文字([^a-zA-Z0-9_] と等価) |
\s | 任意の空白文字(スペース、タブ、\r、\n、\v) |
\S | 任意の非空白文字 |
\b | 単語の境界 |
\n | 改行(New Line) |
\r | キャリッジ・リターン |
\t | タブ |
\. | ピリオド |
\\ | \マーク |
reモジュール
reモジュールはPythonの標準ライブラリで、以下のimport文で使用することができます。
import re
よくある正規表現ライブラリと同じく以下の機能が利用可能です。
- 置換
- 分割
- 検索
正規表現で指定した文字列を置換する
それではreモジュールを使用してみましょう。まずは、データクレンジング等のデータ分析の前処理でよく使用する文字列置換からです。sub関数を使用します。
まず、以下のテキストデータについて考えてみましょう。
101 CF001 コーヒー 102 CF002 コーヒー(お徳用) 201 TE01 紅茶 202 TE02-A 紅茶(お徳用A) 203 TE02-B 紅茶(お徳用B)
商品id、カタログコード、商品名の3つのフィールドからなるテキストデータがあるとします。スペース区切りですが、スペースの数は一定ではありません。
この区切り文字をタブに置換してTSV形式に変換してみます。1つ以上のスペースは' +'で表すことができますので、置換する場合は、以下のように記述します。
import re text = """101 CF001 コーヒー 102 CF002 コーヒー(お徳用) 201 TE01 紅茶 202 TE02-A 紅茶(お徳用A) 203 TE02-B 紅茶(お徳用B)""" tsv_str = re.sub(' +', '\t', text)
可変長のスペース区切り文字列をタブ区切り文字列に変換することができました。
コンパイル済み正規表現オブジェクト
さきほど文字列の置換でre.sub関数を使用しましたが、別の方法があります。
regex = re.compile(' +') tsv_str = regex.sub('\t', text)
re.compileによりコンパイル済み正規表現オブジェクトと呼ばれるオブジェクトを生成することができ、reモジュールの多くの関数と同様のメソッドを実行することができます。
繰り返し使用する場合はコンパイル済み正規表現オブジェクトを使用するほうがよいでしょう。
正規表現で区切られた文字列を分割する
splitを使用すると文字列を指定した正規表現で分割することができます。
今度は先ほどの商品データを1フィールドずつ区切ってみましょう。フィールドの区切りは空白文字と改行なので、\s+を使用します。
fields = re.split('\s+', text) print(fields) # ['101', 'CF001', 'コーヒー', '102', 'CF0・・・
また、コンパイル済み正規表現オブジェクトを使用した場合、以下のようになります。
regex = re.compile('\s+') fields = regex.split(text)
正規表現で検索する
テキストデータから特定の文字列を検索するためにreモジュールにはfindall、search、matchという3つの検索機能があります。
findallによる検索
findallを使用すると、パターンにマッチするすべての文字列をリストで取得することができます。
サンプルです。先ほどのテキストデータからすべての「紅茶」を含む列だけ抽出する方法について考えてみましょう。「紅茶」を含む文字列は".*紅茶.*"で表すことができます。
import re text = """101 CF001 コーヒー 102 CF002 コーヒー(お徳用) 201 TE01 紅茶 202 TE02-A 紅茶(お徳用A) 203 TE02-B 紅茶(お徳用B)""" tea = re.findall(".*紅茶.*", text) print(tea) # ['201 TE01 紅茶', '202 TE02-A 紅茶(お徳用A)', '203 TE02-B 紅茶(お徳用B)'] # コンパイル済み正規表現オブジェクトを使う場合 regex_tea = re.compile('.*紅茶.*') tea = regex_tea.findall(text)
「紅茶」を含む行が抽出出来ました。IPythonなどのインタラクティブシェル上でgrepと同様の処理をしたい場合にも使うことができます。
searchによる検索
searchはfindallとは異なり、パターンの最初の出現の開始位置と終了位置のインデックスを持ったmatchオブジェクトと呼ばれるオブジェクトを返します。
import re text = "ABCDEFGHIJKLMNOPQRSTU" m = re.search('D..G', text) print(m.start(), m.end()) # 3 7 print(text[m.start():m.end()]) # DEFG
とはいえ、インデックスを指定して文字列を取得するのは面倒ですので、通常は取得したmatchオブジェクトのgroupメソッドを使用して一致文字列を取得します。
print(m.group()) # DEFG
また、コンパイル済み正規表現オブジェクトを使用した場合、以下のようになります。
import re text = "ABCDEFGHIJKLMNOPQRSTU" regex = re.compile('D..G') m = regex.search(text) print(m.group()) # DEFG
matchによる検索
matchは先頭から一致した場合にmatchオブジェクトを、そうでない場合はNoneを返します。
import re text = "ABCDEFGHIJKLMNOPQRSTU" m = re.match('.*D..G', text) print(m.group()) # ABCDEFG m = re.match('.*S..V', text) print(m) # None
一致しない場合はNoneが返されることが確認できます。ただし、先頭から一致しているひつようがあるため、searchと比較してあまり使用されていないように思えます。
コンパイル済み正規表現オブジェクトを使用した場合、以下のようになります。
import re text = "ABCDEFGHIJKLMNOPQRSTU" regex = re.compile('.*D..G') m = regex.match(text) print(m.group()) # ABCDEFG
正規表現グループ
正規表現グループは、目的の一致オブジェクトをグルーピングして取得することができます。データ分析やETLツールの実装でよく使う非常に便利な機能なので知っておくと役に立つかと思います。
サンプルとして先ほどの商品リストを1レコードずつ処理する場合について考えてみましょう。
商品idが数値、カタログコードがアルファベッド大文字と数字の組み合わせ、商品名が任意の文字列である場合、それぞれのフィールドは以下のように表すことができるものとします。
- 商品id:[0-9]+
- カタログコード:[0-9A-Z]+
- 商品名:.*
- 区切り文字:スペース+
これらの正規表現をグループで表すと、以下のように記述することができます。
([0-9]+) +([0-9A-Z]+) +(.*)
このグループをパターンとして指定すると、タプルとして取得することができます。サンプルで確認してみましょう。
import re text = """101 CF001 コーヒー 102 CF002 コーヒー(お徳用) 201 TE01 紅茶 202 TE02-A 紅茶(お徳用A) 203 TE02-B 紅茶(お徳用B)""" re.findall('([0-9]+) +([0-9A-Z]+) +(.*)', text) # [('101', 'CF001', 'コーヒー'), # ('102', 'CF002', 'コーヒー(お徳用)'), # ('201', 'TE01', '紅茶')]
1レコードが1タプルで取得できたことが確認できます。このように、1つのデータの塊を正規表現のグループとして表せる場合は効率的な文字列解析を行うことができるようになります。
GreedyとLazy
正規表現の動作で注意したいのがGreedyとLazyです。
正規表現がGreedy(貪欲)とは、パターンにマッチする文字列を抽出した際、マッチする最大範囲が抽出される状況を指します。Pythonの正規表現はデフォルトではGreedyに動作します。
文章だけだとわかりづらいため、具体的なサンプルを挙げてみます。
import re html = "<h1>見出し</h1><p>ここはパラグラフです。</p>" p = re.findall('<.*>', html) print(p) # ['<h1>見出し</h1><p>ここはパラグラフです。</p>']
2020/9/25 サンプルコード中の結果が誤っていたため修正しました。ご連絡くださった方ありがとうございます。
上の正規表現だと<から始まり、>で終わる文字列が指定されていますが、結果としてテキストデータ全体がマッチされています。もしHTMLのタグ、つまり<h1>、</h1>、<p>、</p>だけを抽出したい場合だと問題がありますね。
そんな時に便利なのがLazy(怠惰な)マッチングです。?をパターンの最後につけると、「可能な限り少ない」マッチングを取得することができます。
再度サンプルでLazyなマッチングの動作を確認してみましょう。
import re html = "<h1>見出し</h1><p>ここはパラグラフです。</p>" p = re.findall('<.*?>', html) print(p) # ['<h1>', '</h1>', '<p>', '</p>']
最短で一致したタグのみを取得することができました。