pythonでダウンロードしたものをデータベースに格納しているスクリプトがあるのだが、今までよりも極端に長いURLを保管しなくてはならなくなった。 でテキストのURLを圧縮して格納しようと考える。テキストの圧縮だとzipとか使うとがっつり縮むので、わりとうまくいくかと思ったらそうでもなかった。 import bz2 import zlib import gzip message = b"https://blogger.googleusercontent.com/img/a/AVvXsEiW_tRgG6pcqqu2AxA3j3-m-KY0rvzpmEb_t6zZHK0OBhHVulNav6Rl-So5me4Gh2zf-cvyljvIqi4bpRLi9t3HvlywJ-4xKV90R3S8vzewubIlXJhqJpvK2UucdZ0w4nr90Bq4Wro4122HYI6Uu2_fTELqPT7HBdKOBPRJ1E95iEMbRsthIflMwZdo=s1500" #適当な URLです print(f"元テキスト長さ:{len(message)}") print("\n") t = zlib.compress(message) print("zlib 圧縮後: " + str(len(t)) + ", 圧縮率: " + str(round((len(message) - len(t))/len(message)*100)) + "%") print(t) print("\n") t = gzip.compress(message) print("gzip 圧縮後: " + str(len(t)) + ", 圧縮率: " + str(round((len(message) - len(t))/len(message)*100)) + "%") #print(t) print("\n") #t = bz2.compress(message) #print("bz2 圧縮後: " + str(len(t)) + ", 圧縮...