首页 > 其他分享 >谈谈这两天用Dify写小说想赚稿费的事

谈谈这两天用Dify写小说想赚稿费的事

时间:2024-08-23 18:22:52浏览次数:14  
标签:章节 故事 Dify 稿费 -- 生成 谈谈 小说 节点

谈谈这两天用Dify写小说想赚稿费的事

最近这两天,我尝试着自己构建 Dify工作流,去给我写小说,可能是自己小说看的少,看了Ai写的小说,感觉还不错啊,比我以前高中作文写的要好的多啊。然后我就幻想着靠AI写小说赚稿费了。

今天就聊下,这两天我是怎么设计工作流,来实现长篇小说的编写的,以及在未来可能会尝试的方法。

先看下,我之前创建的Dify工作流的界面:

然后再看下,使用这个工作流的界面:

眼尖的小伙伴,可能已经看到了,这个应用怎么叫 技术故事会,因为之前是想通过Ai创作一些技术故事,比如之前的的故事文章 MVCC 的奇幻之旅:数据库王国的传奇 ,就是通过Ai编写的。

所以名字叫技术故事了,后来,我把名字改为 “小说创作了”,但不知道这里为啥没改回来。这个不多说了,下面说下怎么使用,使用非常简单,填写表格就行了。

  • 小说类型:可以写 冒险、犯罪、科幻,可以写多个类型。
  • 章节数量:这篇小说有多少章节,这个Ai会参考的。
  • 故事元素:小说中涉及到哪些元素,比如:父爱、失踪、林中小屋、德玛西亚、光辉等等。
  • 每章字数:是一个下拉框,可以选择500啊,1000啊,等等。
  • 小说主题:这个是可选项,你可以设定一个小说的主题,比如:一个父亲为了帮助杀人的女儿摆脱嫌疑和警察展开斗智斗勇的故事。

填完表格,点击运行按钮就行了,等个几分钟,没问题的话,Ai就会帮你生成一篇小说啦~

就像下面这样:

在使用的过程中发现一个问题,工作流中的节点都运行完之后,最终的结果还需要比较久的延迟才能出来。就像下这样:

有时候,很快就能出结果,有时就很慢,不知道是哪里的问题~

不管这个界面了,我通过应用的日子看到工作流确实执行完毕了,结果已经出来了:

因为我之前设置的是生成两个章节,每章500字,所以生成的故事还是很简单的~

我构建的工作流理论上是支持创建不限字数的长篇小说的,只要Token足够就行。

下面看下,我是如何创建这个工作流的~

首先,总体说下我创建工作流有哪些节点:

开始节点--> 故事背景-->故事概览--> 主要角色背景--> 章节大纲--> 第一章节内容--> 参数提取(从章节大纲中提取大纲数组) --> 对大纲数组进行迭代(迭代中生成后续的章节、润色生成的章节内容,排除第一章)  --> 将生成的多个章节进行合并  -->  结束节点。

看似一个简单的小说生成,这个工作流中一共调用了( 5 + 章节数量 )次大模型,还是比较耗费Token的。

下面就介绍下具体的设置

因为这块还是有些复杂的,只能选一些关键的配置说下,没法全部说完。

开始节点:

就是一个表单,增加一些你要设置的变量:

故事背景节点:

故事概览节点:

主要角色背景节点:

章节大纲节点:

后续章节创作节点:

多个章节进行合并节点:

总结

通过这么一套工作流生成的小说,凭良心话说,怎么样??我摸着良心说话,比我写得要好。但指望这个东西赚稿费,感觉还是写代码靠谱点~ 因为目前这套流程生成的小说还是有很多问题,比如,故事情节不够吸引人,用词有时候还是不够准确,风格比较单一等等。

这些问题,我没有实际的完整的解决过,但是,我之前试过,通过先喂给模型一些优秀的小说,然后让他学习其中的风格,这种方法写错来的小说,效果会好很多~

不信的话,你可以试下啊,我没骗你的~


都看到这里了,还不点个关注吗?

标签:章节,故事,Dify,稿费,--,生成,谈谈,小说,节点
From: https://blog.csdn.net/2401_84664550/article/details/141433566

相关文章

  • Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI
    Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程XorbitsInference(Xinference)是一个开源平台,用于简化各种AI模型的运行和集成。借助Xinference,您可以使用任何开源LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并......
  • 谈谈ChatGPT、GPT4.0及GPT-4o
    现在人工智能飞跃式的发展,自然语言处理领域取得了显著进展,其中以OpenAI开发的ChatGPT及其后续模型GPT-4.0和GPT-4o尤引人注目。这些模型不仅推动了人机交互的新边界,还预示着未来智能应用的无限可能。本文旨在深入探讨ChatGPT的基本特性、GPT-4.0的增强功能,以及GPT-4o的多......
  • LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开
    LLM大模型部署实战指南:Ollama简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发1.Ollama部署的本地模型(......
  • 无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智
    无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智能方案1.Dify简介1.1功能情况Dify,一款引领未来的开源大语言模型(LLM)应用开发平台,革新性地融合了后端即服务(BackendasaService,BaaS)与LLMOps的精髓,为开发者铺设了一条从创意原型到......
  • 谈谈我用MemFire Cloud开发应用的这一两年
    作为一个独立开发者,这两年我在应用开发的道路上经历了不少挑战和收获。而帮助我度过这些挑战、提高开发效率的“神器”之一,就是MemFireCloud。如果你还没听说过这个工具,那么我今天就来和你分享一下我使用MemFireCloud开发应用的经历,以及它如何改变了我的工作方式。一站......
  • 无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智
    无缝融入,即刻智能[一]:Dify-LLM大模型平台,零编码集成嵌入第三方系统,42K+星标见证专属智能方案1.Dify简介1.1功能情况Dify,一款引领未来的开源大语言模型(LLM)应用开发平台,革新性地融合了后端即服务(BackendasaService,BaaS)与LLMOps的精髓,为开发者铺设了一条从创意原型到高效生......
  • 谈谈你对docker的理解
    Docker是一种容器化技术,主要用于轻量级、可移植的应用程序打包和部署。1.容器化技术的基本概念容器:容器是一种轻量级的、独立运行的应用程序打包方式,包含运行所需的所有依赖项(代码、运行时环境、系统工具、库等),并且在任何环境中均能保持一致运行。Docker:Docker是当......
  • 谈谈测试人员的职责
    谈谈测试人员的职责继续上一篇笔记https://www.cnblogs.com/zxylock/p/16329598.html       写写最近的感悟--为什么好久没更笔记中有一句话:从只有一个人的测试(后期我负责招聘面试补充三到五人)到有一个测试部门环境下,好像一下子打开了新的世界。-----------------回顾----......
  • RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anythi
    RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐1.MaxKBMaxKB=MaxKnowledgeBase,是一款基于LLM大语言模型的开源知识库问答系统,旨在成为企业的最强大脑。它能够帮助企业高效地管理知识,并提供智能问答功能。想象一......
  • 谈谈工作两个月的感觉
    谈谈工作两个月的感觉继上次发的找到工作之后的总结文章,已经差不多快三个月了,我的实习岗位是前端实习,使用的是vue开发,公司是一个金融公司,然后公司给我的最大的感觉就是,很有挑战性,使用的是敏捷开发模式,迭代非常快,然后这几天请假回家陪女朋友玩玩,顺便总结总结自己吧很大提......