Skip to content
New issue

Have a question about this project? # for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “#”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? # to your account

[20210523] Weekly AI ArXiv 만담 #10

Closed
jungwoo-ha opened this issue May 9, 2021 · 3 comments
Closed

[20210523] Weekly AI ArXiv 만담 #10

jungwoo-ha opened this issue May 9, 2021 · 3 comments

Comments

@jungwoo-ha
Copy link
Owner

jungwoo-ha commented May 9, 2021

@jungwoo-ha jungwoo-ha changed the title [20210516] Weekly ArXiv 만담 [20210523] Weekly AI ArXiv 만담 --> 논문 작성 관계상 이번주는 쉽니다. May 15, 2021
@jungwoo-ha jungwoo-ha changed the title [20210523] Weekly AI ArXiv 만담 --> 논문 작성 관계상 이번주는 쉽니다. [20210523] Weekly AI ArXiv 만담 May 23, 2021
@qqueing
Copy link

qqueing commented May 23, 2021

FNet: Mixing Tokens with Fourier Transforms
구글 리서치에서 내놓은 논문으로 트랜스포머 구조중에 MHA 레이어를 FFT로 바꿔서 실험을 합니다. 일종의 잘 설계된 fixed linear layer로 생각해서 linear layer와 비교를 주로 합니다. 제안하는 모델은 성능에서 약간 손해를 보지만 효율(더 긴 렝쓰 처리, 더 큰 배치사이즈, 트레이닝 속도) 등에 큰 장점이 있습니다.

Attention-based Neural Beamforming Layers for Multi-channel Speech Recognition
아마존의 빔포머 논문입니다. 빔포밍은 다들 관심이 없으실 것 같고 재미있는 부분은 2D conv-attention이라는 모듈입니다, 어텐션을 2개를 병렬로 구성해서 하나는 타임축, 하나는 프리퀀시 축으로 어텐션을 계산을 해서모으네요. 성능 개선폭도 좋은 것 같습니다 다른 스피치 실험에서도 비슷하게 전개가 될 수 있을 것 같다는 생각을 했습니다.

# for free to join this conversation on GitHub. Already have an account? # to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

4 participants