🗨️

chatGPT【用户】

Date
Mar 20, 2023
Tags
专题
prompt
 

免费的gpt

注册

  • https://5sim.net/,比sms-activate更好用的接码平台

产业变革与思考

notion image
  • chatGPT + Robotics 将会如何改变制造业?如何通过快速理解产品制造工艺去重新设计机器,驱动机器人实现更高效的自动化,提供工业化历史上最高的良品率和最少的人员干预制造,实现真正意义上的“黑灯工厂”?这是一个非常期待有意思的事情。
  • 通向AGI之路:大型语言模型(LLM)技术精要 - 知乎 (zhihu.com)
    • 第二个原因,如果想要以零示例提示语(zero shot prompting)或少数示例提示语(few shot prompting)的方式做好任务,则必须要采取GPT模式。现在已有研究(参考:On the Role of Bidirectionality in Language Model Pre-Training)证明:如果是以fine-tuning方式解决下游任务,Bert模式的效果优于GPT模式;若是以zero shot/few shot prompting这种模式解决下游任务,则GPT模式效果要优于Bert模式。这说明了,生成模型更容易做好zero shot/few shot prompting方式的任务,而Bert模式以这种方式做任务,是天然有劣势的。这是第二个原因。 首先,我们先看在预训练阶段,随着模型规模逐步增大,会发生什么。OpenAI在“Scaling Laws for Neural Language Models”中专门研究了这个问题,并提出LLM模型所遵循的“伸缩法则”(scaling law)。如上图所示,这个研究证明:当我们独立增加训练数据量、模型参数规模或者延长模型训练时间(比如从1个Epoch到2个Epoch),预训练模型在测试集上的Loss都会单调降低,也就是说模型效果越来越好。 既然算力、数据集、参数量三个因素都重要,那么我们在实际做预训练的时候,就有一个算力如何分配的决策问题:假设用于训练LLM的算力总预算(比如多少GPU小时或者GPU天)给定,那么是应该多增加数据量、减少模型参数呢?还是说数据量和模型规模同时增加,减少训练步数呢?此消彼长,某个要素规模增长,就要降低其它因素的规模,以维持总算力不变,所以这里有各种可能的算力分配方案。最终OpenAI选择了同时增加训练数据量和模型参数,但是采用早停策略(early stopping)来减少训练步数的方案。因为它证明了:对于训练数据量和模型参数这两个要素,如果只单独增加其中某一个,这不是最好的选择,最好能按照一定比例同时增加两者,它的结论是优先增加模型参数,然后才是训练数据量。假设用于训练LLM的算力总预算增加了10倍,那么应该增加5.5倍的模型参数量,1.8倍的训练数据量,此时模型效果最佳。 DeepMind的一项研究(参考:Training Compute-Optimal Large Language Models)更深入地探究了这个问题,其基本结论和OpenAI的结论差不多,比如确实需要同时增加训练数据量和模型参数,模型效果才会更好。而很多大模型在做预训练的时候,并没有考虑这一点,很多LLM大模型只是单调增加模型参数,而固定住了训练数据量,这个做法其实是不对的,限制了LLM模型的潜力。但是它修正了两者的比例关系,认为训练数据量和模型参数是同等重要的,也就是说,假设用于训练LLM的算力总预算增加了10倍,那么应该增加3.3倍的模型参数量,3.3倍的训练数据量,这样模型效果才最好。

产品:资源、工具

  • https://arxiv.org/abs/2303.12712
    • 微软发布的 GPT-4 的体验报告(154页),开头的一句话: 鉴于GPT-4的广度和深度,我们认为它可以合理地被视为人工通用智能(AGI)系统的早期版本(尽管仍然不完整)。
    • 翻译:https://orangeblog.notion.site/GPT-4-AGI-8fc50010291d47efb92cbbd668c8c893
notion image
  • ChatGPT 提示语 | ChatGPT 提示语 分门别类的提示语大全 这里汇集了丰富的 ChatGPT 提示语、创意写作灵感与实用技巧。让我们帮助您激发无限创意,提升写作效率与质量。
  • https://github.com/lxfater/Portal
  • https://github.com/Yidadaa/ChatGPT-Next-Web
  • https://unsafe.sh/go-156418.html
  • https://www.notion.so/History-of-LLM-6abfb803864746b8bbb7867082a070ce?pvs=4
    notion image
     

    第三方chatGPT及其他模型

    • https://openprompt.co/
    • nat.dev,由于作者被白嫖太多,所以gpt-4目前需要支付5美金给作者
    • https://beta.character.ai/
    • chat.forchange.cn freegpt.one

    嵌入式设备gpt

    社区交流

    • https://t.me/LptTech,ChatGPT中文社区
     

    购买gpt plus

     

    学术

     

    prompt

     

    GPTs

    gpt-crawler,https://github.com/BuilderIO/gpt-crawler…,一款可以将网站内容全部爬取下来,并转换成可以作为 GPTs 学习的结构化知识的工具。 例如你想制作一个数字人分身,不妨把自己在社交媒体或者个人博客的内容先抓取下来,提交给 ChatGPT 作为储备知识。 顺便推荐下它背后使用的技术框架,crawlee,https://crawlee.dev,它是一个网络爬虫工具,也是一款浏览器自动化工具,在实现上,它提供了 DOM 解析能力、无头浏览器模式、异常状态码处理、队列和存储,以及大量的配置项来增强爬虫。它也是一款开源产品:https://github.com/apify/crawlee
       
       

      反GPT

       

      大模型测试问题