有没有大佬做个GPTs,或者训练个ai
用汪吧盒佬、自创圈、大数圈、伪数学圈、大基数数学论文…这些数据集作为训练数据来训练一个ai
然后让这个ai前期写盒子+名词流
中期不断生成各种看起来像模像样的集合论数学符号、各种强度的大基数
后期各种超越数学+自创名词
这样要汪吧盒子有盒子
要vb名词有名词
要自创构造有构造
…
然后不断的盒子+构造+名词+超越数学+集合论语言+大基数…这么不断的写下去写1000万字应该能超越《神盒》了吧,不行就一亿字
唯一的问题就是前后文逻辑不通了
不过都自创了…有几个逻辑是顺畅的
还有一个问题就是大语言模型一次能够接受的长文本数量有限譬如GPT-4 Turbo能支持128k,Gemini 1.5 Pro同样支持128k…就算是最高支持100万tokens也不够用
但是可以试试把ai一次性输出的文本用向量数据库的形式存储,然后把向量数据库的搜索输出+部分前输出文本作为输入再进行输出…
如此循环
当然我不是专业人士…
也不太清楚这么做的成本是多少
虽然也不知道GPT-4 Turbo能不能调用外部的文本向量数据库,影不影响成本
不过就按照GPT-4 Turbo的token来计算了
输入:0.01 美元 / 1000token
输出:0.03 美元 / 1000token
最终生产文本约合0.6元/千字
只需要约6000元就可以生成一部「1000万字」、超越《神盒》的巨著
这要是还不行那就6万
用汪吧盒佬、自创圈、大数圈、伪数学圈、大基数数学论文…这些数据集作为训练数据来训练一个ai
然后让这个ai前期写盒子+名词流
中期不断生成各种看起来像模像样的集合论数学符号、各种强度的大基数
后期各种超越数学+自创名词
这样要汪吧盒子有盒子
要vb名词有名词
要自创构造有构造
…
然后不断的盒子+构造+名词+超越数学+集合论语言+大基数…这么不断的写下去写1000万字应该能超越《神盒》了吧,不行就一亿字
唯一的问题就是前后文逻辑不通了
不过都自创了…有几个逻辑是顺畅的
还有一个问题就是大语言模型一次能够接受的长文本数量有限譬如GPT-4 Turbo能支持128k,Gemini 1.5 Pro同样支持128k…就算是最高支持100万tokens也不够用
但是可以试试把ai一次性输出的文本用向量数据库的形式存储,然后把向量数据库的搜索输出+部分前输出文本作为输入再进行输出…
如此循环
当然我不是专业人士…
也不太清楚这么做的成本是多少
虽然也不知道GPT-4 Turbo能不能调用外部的文本向量数据库,影不影响成本
不过就按照GPT-4 Turbo的token来计算了
输入:0.01 美元 / 1000token
输出:0.03 美元 / 1000token
最终生产文本约合0.6元/千字
只需要约6000元就可以生成一部「1000万字」、超越《神盒》的巨著
这要是还不行那就6万