在2024年底,我评估了自己的进展,决定向导师请教。他给了我许多建议,我意识到需要重新学习以提升自己。我设定了新目标,包括寻找优秀老师、选择灵活工作以便于培训,并关注基础知识,特别是在快速变化的科技领域。
研究发现,Transformer语言模型在学习离散算法方面的能力有限,效果不如重新学习所有子任务。复杂性理论的定理证明了在记忆前馈模型上的梯度下降可能在数据效率上低效。
完成下面两步后,将自动完成登录并继续当前操作。