B'zの歌詞をPythonと機械学習で分析してみた 〜データ入手編〜
1. 本Part概要
こんにちは。pira-ninoです。
本Partでは、B'zの「歌詞データの入手」について書かさせて頂きます。
分析の概要については、「イントロ編」を参照してください。
2. 歌詞データの入手
前Part(分析結果の公開について)で書いた通りなのですが、ちょっとデータ入手については色々不安点がありますので、あえて生コードは載せません。(いきなりで申し訳ない。。。)
以下のリンク*1を参考に、「歌詞」・「曲名」・「発売年」をカラムに持ったDataFrameを作成します。
あまりにも解説がないのはアレなので、何をしたのかを以下の箇条書きで説明します。
- 曲一覧のページに対して、
urllib.request
でhtmlを引っ張ってくる - 取ってきたhtmlを元に
BeautySoup
オブジェクトを作る soup.find_all<href=re.compile("正規表現")
でhrefが正規表現に引っかかる部分のみ取って来れるので、これを駆使して各曲名と歌詞が書いてあるURLを取ってくる- そのURLのhtmlを元に歌詞を取ってくる。
- ついでにamazonへのリンクがあるので、それを元にCDの発売日を取ってくる
また、BeautySoupに関しては以下のURLが初心者向けで為になります。
さらに、発売日が「:1991-11-2」といった形で抽出されるので軽く前処理をし、「年」のみの抽出を行います。
def get_year(moji): return int((moji.split(":")[1]).split("-")[0]) df["Year"]=list(df["Sales_Date"].apply(lambda x: get_year(x)))
これらを行うことで得られるDataFrameはこのようになります。(キューピー3分クッキング方式)
ちなみに、334曲の歌詞が上記の作業でDataFrameに格納されていると思います。改めてですが、すごい曲数ですね。。。
3. 前処理の前に一回集計
自然言語処理(NLP:Natural Language Processing)の分野ではいわゆる「不用語」の削除を前処理として行うのが定石となっております。
例えば「句読点」や「助詞」は頻度的には多く出現するが、特に意味を持っていないので予め削除すべきということは明白です。
さらにこの問題は日本語特有の問題ではなく、英語でも、"It"や"Is"など明らかな不用語はstopwordと呼ばれ削除することも定石となっております。
そこで、ここではあえて不用語削除前の単語の分析を行うことで「前処理の必要性」を感じたいと思います。
3.1 単語頻度の集計
単語頻度を集計する際にはcollections.Counter
が非常に便利です。
これに一個の長い単語のリストを入れると、その要素と頻度が簡単に求められます。
from collections import Counter text = ' '.join(df_all["Lyric"]) #各曲を長い一つのリストに統合 words = [w for w in text.split(" ")] #textをスペース区切りでリストに格納 word_count = Counter(words)
これで得られた(単語、頻度)の組み合わせをDataFrameに入れて頻度上位20単語を可視化します。 何かとぶつかるmatplotlibの日本語表示の問題は各自の環境に合わせて解決とよく言われるが、私はこれで解決。
import matplotlib from matplotlib.font_manager import FontProperties font_path = '/Library/Fonts/TakaoPGothic.ttf' font_prop = FontProperties(fname=font_path) import matplotlib.pyplot as plt %matplotlib inline #DataFrameに格納 df_count = pd.DataFrame.from_dict(word_count,orient='index').reset_index() df_count.columns=["word","count"] df_count.sort_values("count",ascending=False,inplace=True) df_count=df_count.iloc[1:,:] #可視化 plt.figure(figsize = (30,20)) ax=df_count.iloc[:20,:].plot.bar() ax.set_ylabel("Frequency",fontsize=15) ax.set_xticklabels( df_count.iloc[:20,:]["word"], fontdict = { "fontproperties": font_prop, 'fontsize':10, } ) ax.legend_.remove() plt.show()
これで出力された図がこちら。
"to"とか"it"などが出ていることから、なんとなく残念な結果が出ていることが分かります。
さらに、単語頻度を詳細に見て見ると\u3000
って文字のせいで日本語がうまく区切られていないことが見られます。この\u3000
は全角スペースのことで文字コードの処理で何かとよく見る文字です。
3.2 Word Cloudを用いて可視化
Word Cloudはネットでよく見る単語をかっこよく表示しているツール(?)です。
結構かっこよく見えますが、色も大きさも含め実は「単語の頻度の情報」しか情報量を持っていない図となっております。色は気にしなくて大丈夫です。大きさだけ見てればいいです。
何はともあれ可視化して見ましょう。
from PIL import Image from wordcloud import WordCloud, STOPWORDS font_path = '/Library/Fonts/TakaoPGothic.ttf' #単語の頻度をCounterに text = ' '.join(df_all["Lyric"]) #各曲を長い一つのリストに統合 words = [w for w in text.split(" ")] #textをスペース区切りでリストに格納 word_count = Counter(words) #Word Cloudを用いて可視化 bz_mask = np.array(Image.open("bz.png"))#適当に持ってきた写真。背景が白で黒い部分に文字が載る。 wc_bz = WordCloud( background_color="white", max_words=3000, max_font_size=70, mask=bz_mask, font_path=font_path ) # Counterを引き渡す wc_bz.generate_from_frequencies(word_count) plt.figure(figsize = (21,12)) sns.set_style("whitegrid") plt.imshow(wc_bz, interpolation="bilinear") plt.axis("off") # plt.savefig(''前処理前の単語のword_cloud.png") plt.show()
再度ですが「単語の頻度以外の情報量がない図」なのですが、とにかくカッコイイ図ですね。
カッコイイとはいえ結構ゴミ単語が見受けられることから「前処理の必要性」を感じていただけたでしょうか?
4. 最後に
本Partでは、歌詞をスクレイピングしてきてDataFrameに納めました。
さらに、集計を行うことで前処理の必要性を確認しました。
次Partでは「どのような前処理をしたか」について話していきたいと思います。
*1:このサイトを見つけた時、「神」と思ったのと同時に「世の中似たようなことしたい人がいるんだなぁ」と思いました。