chore: Remove didyoumean, version updates from jan

parent 68c9ff4f
...@@ -6,13 +6,35 @@ from keras.callbacks import ModelCheckpoint, EarlyStopping ...@@ -6,13 +6,35 @@ from keras.callbacks import ModelCheckpoint, EarlyStopping
from glossolalia.loader import load_seeds, load_text from glossolalia.loader import load_seeds, load_text
from glossolalia.lstm import LisSansTaMaman from glossolalia.lstm import LisSansTaMaman
"""
Les neurones viennent, et j'leur ai pas demandé
les sirènes bercent les nike de leurs spectateurs
la vie et le charme comme un Jean-Pierre rétro
les page rimes esthétique
la vie est le tapis, comme un Jean-Pierre philanthrope
un torrent ivre c'est un bout de Monet
La vie est un mystère
Nous est un peu de béton
remplir de côté, c'est mon adage dans le feu
les mots dans la vitre, je me répare
vacante de blues
Nous sommes la vie et je suis né
Nous sommes les yeux qui ont la tronche de grammaire
Je suis un peu noir comme un mur de dix rimes
rimes en guise de subutex
claque les armes sales
la tronche de ta rente
ésotérisme et pierre de novembre
"""
def train(): def train():
# should_train = True # should_train = True
nb_words = 20 nb_words = 20
nb_epoch = 50 nb_epoch = 60
nb_layers = 100 nb_layers = 100
dropout = .2 # TODO finetune layers/dropout dropout = .3 # TODO finetune layers/dropout
validation_split = 0.2 validation_split = 0.2
lstm = LisSansTaMaman(nb_layers, dropout, validation_split, debug=True) lstm = LisSansTaMaman(nb_layers, dropout, validation_split, debug=True)
# #
...@@ -27,7 +49,7 @@ def train(): ...@@ -27,7 +49,7 @@ def train():
corpus = load_text("./genius.txt") corpus = load_text("./genius.txt")
print("Corpus:", corpus[:10]) print("Corpus:", corpus[:10])
lstm.create_model(corpus[:1000]) lstm.create_model(corpus)
if not os.path.exists(dir): if not os.path.exists(dir):
os.makedirs(dir) os.makedirs(dir)
......
...@@ -2762,7 +2762,7 @@ Car j'ai la tête dans la lune mais que j'ai quand même les pieds sur Terre ...@@ -2762,7 +2762,7 @@ Car j'ai la tête dans la lune mais que j'ai quand même les pieds sur Terre
[Refrain] [Refrain]
C'est vrai je vis dans le péché, le poirier, les camélias C'est vrai je vis dans le péché, le poirier, les camélias
Ce qui veulent m'empêcher de kiffer ont déployé des caméras man Ceux qui veulent m'empêcher de kiffer ont déployé des caméras man
Tu peux pas baiser dans la rue sinon tu finis sur Youjizz Tu peux pas baiser dans la rue sinon tu finis sur Youjizz
Et dans les caves c'est la cohue qui satisfait 9 personnes sur 10 Et dans les caves c'est la cohue qui satisfait 9 personnes sur 10
Ils disent parfois qu'j'suis géniaux car on est plusieurs dans ma tête Ils disent parfois qu'j'suis géniaux car on est plusieurs dans ma tête
......
#! /usr/bin/env python
from glossolalia.tweeper import Tweeper from glossolalia.tweeper import Tweeper
def tweet(): def tweet():
# La nuit est belle, ma chérie salue sur la capuche # TOP
# grands brûlés de la chine # Les rues d'ma vie se terminent par des partouzes de ciel
# Femme qui crame strasbourg # La vie est nouée
# où on est fait le printemps
# on squatte le dieu
# une étoile de la chatte sur le porno de la plume
# WEIRD
# Femme qui crame Strasbourg
# le soleil est triste # le soleil est triste
# on a pas un martyr parce qu't'es la
# des neiges d'insuline # des neiges d'insuline
# Un jour de l'an commencé sur les autres # Un jour de l'an commencé sur les autres
# une hypothèse qu'engendre la haine n'est qu'une prison vide # une hypothèse qu'engendre la haine n'est qu'une prison vide
# Relater l'passionnel dans les casseroles d'eau de marécages # trop jeune pour dormir vu tous les yeux
# La nuit c'est le soleil
# Les rues d'ma vie se terminent par la cannelle
# Les rues d'ma vie se terminent par des partouzes de ciel
# des glaçons pour les yeux brisées # des glaçons pour les yeux brisées
# je suis pas juste un verbe que t'observe # je suis pas juste un verbe que t'observe
# A fleur de peau et de dieu
# la partie bombée de la musique
# le rap des pirates en ciel mais les trous noirs en l'air
# si tu sais rien pas d'âme de la vie # si tu sais rien pas d'âme de la vie
Tweeper("KoozDawa").tweet("tassepés en panel") # "Relater l'passionnel dans les casseroles d'eau de marécages"
msg = "Les rues d'ma vie se terminent par des partouzes de ciel"
Tweeper("KoozDawa").tweet(msg)
if __name__ == '__main__': if __name__ == '__main__':
......
import json import json
def clean(text): def clean_text(corpus: str):
# TODO: Remove lines with ??? return "\n".join([l.replace("’", "\'")
# Replace literal newlines for l in corpus.split("\n")
# Remove empty lines if l != ""
# Replace ’ by ' and l.find("RapGenius France") == -1])
pass
if __name__ == '__main__': if __name__ == '__main__':
...@@ -20,12 +19,8 @@ if __name__ == '__main__': ...@@ -20,12 +19,8 @@ if __name__ == '__main__':
if lyrics is not None: if lyrics is not None:
corpus += lyrics + "\n" corpus += lyrics + "\n"
corpus = "\n".join([l.replace("’", "\'") corpus = clean_text(corpus)
for l in corpus.split("\n")
if l != ""
and l.find("RapGenius France") == -1])
print(corpus) print(corpus)
with open("../data/genius.txt", "w+") as o: with open("../data/genius.txt", "w+") as o:
o.writelines(corpus) o.writelines(corpus)
...@@ -8,6 +8,7 @@ from keras.layers import Embedding, LSTM, Dropout, Dense ...@@ -8,6 +8,7 @@ from keras.layers import Embedding, LSTM, Dropout, Dense
from keras.utils import to_categorical from keras.utils import to_categorical
from keras_preprocessing.sequence import pad_sequences from keras_preprocessing.sequence import pad_sequences
from keras_preprocessing.text import Tokenizer from keras_preprocessing.text import Tokenizer
from tensorflow import set_random_seed
from glossolalia.tokens import PoemTokenizer from glossolalia.tokens import PoemTokenizer
...@@ -116,7 +117,6 @@ def generate_text(model: Sequential, tokenizer: Tokenizer, seed_text="", nb_word ...@@ -116,7 +117,6 @@ def generate_text(model: Sequential, tokenizer: Tokenizer, seed_text="", nb_word
def debug_unrandomize(): def debug_unrandomize():
from numpy.random import seed from numpy.random import seed
from tensorflow_core.python.framework.random_seed import set_random_seed
# set seeds for reproducibility # set seeds for reproducibility
set_random_seed(2) set_random_seed(2)
......
...@@ -2,12 +2,11 @@ import lyricsgenius ...@@ -2,12 +2,11 @@ import lyricsgenius
from lyricsgenius.artist import Artist from lyricsgenius.artist import Artist
def fetch(artist_name: str): def fetch(artist_name: str, max_songs=None):
genius = lyricsgenius.Genius("zUSpjfQ9ELXDqOjx9hGfAlJGYQFrNvHh3rlDV298_QSr5ScKf3qlHZtOO2KsXspQ") genius = lyricsgenius.Genius("zUSpjfQ9ELXDqOjx9hGfAlJGYQFrNvHh3rlDV298_QSr5ScKf3qlHZtOO2KsXspQ")
dooz: Artist = genius.search_artist(artist_name) artist: Artist = genius.search_artist(artist_name, max_songs=max_songs)
dooz.save_lyrics(overwrite=True) artist.save_lyrics(overwrite=True, filename="../data/Lyrics_%s.json" % artist_name)
if __name__ == '__main__': if __name__ == '__main__':
fetch("Lucio Bukowski") fetch("Orelsan")
fetch("Hippocampe Fou")
...@@ -4,10 +4,10 @@ from glossolalia.loader import load_texts ...@@ -4,10 +4,10 @@ from glossolalia.loader import load_texts
class PoemTokenizer(Tokenizer): class PoemTokenizer(Tokenizer):
def __init__(self, lower:bool = True, **kwargs) -> None: def __init__(self, lower: bool = True, **kwargs) -> None:
super().__init__(lower=lower, # TODO: Better generalization without? super().__init__(lower=lower, # TODO: Better generalization without?
filters='$%&*+/<=>@[\\]^_`{|}~\t\n', oov_token="😢", filters='$%&*+/<=>@[\\]^_`{|}~\t\n', oov_token="😢",
**kwargs) #TODO: keep newlines **kwargs) # TODO: keep newlines
def get_sequence_of_tokens(self, corpus): def get_sequence_of_tokens(self, corpus):
self.fit_on_texts(corpus) self.fit_on_texts(corpus)
......
...@@ -31,11 +31,11 @@ rsa==4.0 ...@@ -31,11 +31,11 @@ rsa==4.0
scipy==1.3.2 scipy==1.3.2
six==1.13.0 six==1.13.0
tensorboard==2.0.1 tensorboard==2.0.1
tensorflow==2.0.0 tensorflow==1.14.0
tensorflow-estimator==2.0.1 tensorflow-estimator==2.0.1
termcolor==1.1.0 termcolor==1.1.0
tweepy==3.8.0 tweepy==3.8.0
urllib3==1.25.7 urllib3==1.25.7
Werkzeug==0.16.0 Werkzeug==0.16.0
wrapt==1.11.2 wrapt==1.11.2
spacy==2.2.3 spacy==2.2.3
\ No newline at end of file
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment