下面是对《Attention Is All You Need》这篇论文的浅读。
参考文献:
李沐论文带读
HarvardNLP
《哈工大基于预训练模型的方法》
下面是对这篇论文的初步概览:
对Seq2Seq模型、Transformer的概括:
下面是蒟蒻在阅读完这篇论文后做的一…
Problem - 546C - Codeforces
Soldier and Cards - 洛谷 解析: 模拟即可,当循环次数过大的时候跳出循环打印 -1
#include<bits/stdc.h>
using namespace std;
#define int long long
const int N2e55;
int n,x,k1,k2,cnt;
queue<int>a,b;…