Flask全栈开发案例(三) Lstm+Flask的藏头诗/诗歌生成系统

共 2625字,需浏览 6分钟

 ·

2023-07-11 01:45


Flask+LSTM实现AI写诗

前言


之前收到了一位粉丝需求投稿,想写一个基于flask+LSTM实现AI写诗。支持根据提示词续写全诗和藏头诗。该项目参考了《pytorch入门与实践》的教程。我们的主要功能包括根据给定提示词生成一首诗,或者根据给定的一句话生成藏头诗。


两种不同的效果展示如下


运行效果


1、首句生成



我们的主要根据提示词输入,生成诗句。提示词是基于训练数据分词后的结果,所以可能会出现提示词不在训练数据中无法生成的情况。



4831d3c25eb15cdcd21e3383207c56cc.webp



生成诗句后填写作者和诗名,点击保存即可保存到数据库中。


6a3e08dc8a59933eb225f083d048cef6.webp


界面点击广场可以查看其他用户生成的诗句。


3997824e3d928fe526a85abd5e1553d5.webp

2、藏头诗



eg:输入"今天天气不错",生成的诗句为:


bf533456a79907f0f96d41d73739b739.webp


今日一气生。

天子行北极。

天府拱飞车。

气利纵横折。

不知天地地。

错豁三秋景。





数据集


整理好的numpy格式数据集,


http://pytorch-1252820389.cosbj.myqcloud.com/tang_199.pth


其中包含唐诗57580首*125字,不足和多余125字的都被补充或者截断。


实现细节



  1. 1. data是numpy数组,57580首*125字




  2. 2. word2ix和ix2word都是字典类型,用于字符和序号的映射




  3. 3. nn.Embedding层可以输入为long Tensor型的字的下标(int),输入为同样shape的词向量,下标换成了向量,其余形状不变。最重要的构造参数是num_embeddings, embedding_dim




  4. 4. nn.LSTM主要构造参数input_size,hidden_size和num_layers,其中input_size其实就是词向量的维度,forward时输入为input和(h0,c0),其中input为(seq_len,batch_size,input_size),h0和c0是(num_layers $$ num_directions, batch, hidden_size),而forward的输出为output和(hn,cn),一般后面一个就叫做hidden,output为(seq_len, batch, num_directions $$ hidden_size)




  5. 5. 在本网络中,从前往后总共经历了这么几个网络,其向量变化如下:




  • • input:(seq_len,batch_size)




  • • 经过embedding层,embeddings(input)




  • • embeds:(seq_len,batch_size,embedding_size)




  • • 经过LSTM,lstm(embeds, (h_0, c_0)),输出output,hidden




  • • output:(seq_len, batch, num_directions $*$ hidden_size)




  • • output view为(seq_len $$ batch, num_directions $$ hidden_size)




  • • 进过Linear层判别




  • • output:(seq_len $*$ batch, vocab_size)




6. 具体训练时的实现方法:




  • • 输入的input为(batch_size,seq_len)




  • • data_ = data_.long().transpose(1,0).contiguous()将数据转置并且复制了一份,成了(seq_len,batch_size)




  • • 通过input_,target = data_[:-1,:],data_[1:,:]将每句话分为前n-1个字作为真正的输入,后n-1个字作为label,size都是(seq_len-1,batch_size)




  • • 经过网络,得出output:((seq_len-1) $*$ batch, vocab_size)




  • • 通过target.view(-1)将target变成((seq_len-1) $*$ batch)




  • • 这里的target不需要是一个one-hot向量,因crossEntropy不需要,直接是下标即可




  • • 然后反向传播即可




7. 生成诗句的方法:




  • • 首字为


    ,首个hidden自动为空


  • • 如果有前缀风格,通过前缀生成hidden




  • • 在首句内部时,不使用output,仅仅不断前进得到hidden,直到首句结尾。




  • • 进入生成模式后,实际上每次调用model都生成一个字,逐渐生成前n句话。




  • • 藏头诗同理,只是在头的部分将诗句首字换掉



使用方法


首先训练模型,然后运行app.py,访问。当然也可以直接执行app.py,使用预训练内容。



python main.py


python app.py




源码获取


点击公众号菜单中的"免费源码-源码集合"进入"编程树"小程序搜索"诗歌生成"即可免费下载。有项目需求或者代码修改、代码讲解的可以在小程序中发布需求或者直接联系客服



源码集合






浏览 90
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报