这份文本探讨了大型语言模型(LLMs)的局限性,特别是在OpenAI发布GPT-5后的失望。作者认为,尽管有大肆宣传,LLMs并非通往通用人工智能(AGI)的“量子飞跃”,而是更像是GPT-4.5的改进版本。文章批判了“扩展假说”,即模型越大越强大的信念,并指出这种信念导致了巨大的环境成本。核心观点是LLMs本质上是“随机鹦鹉”,通过统计模式生成连贯文本,不具备真正的理解或智能,这与“伊莱莎效应”——人类倾向于将类人情感归因于机器——相呼应。最后,文章援引哲学家雅克·德里达的观点,提出LLMs展现的是一个自包含的语言系统,其中词语只指涉其他词语,而非外部现实,这解释了它们流畅但非智能的文本生成能力。
内容来源:https://observer.co.uk/news/columnists/article/my-advice-to-gpt-5-read-derrida-and-youll-learn-words-are-not-the-same-as-intelligence