결국에 기존 SSM이 여러 LRD 및 complexity issue를 해결하면서 recurrent / convolutional 한 모델 구조를 제안했다.

하지만 text-based task들에서 성능이 좋지 않았다는 것을 해결하려고함.

이러한 text-based task를 잘 수행하는 transformer들에 대한 분석들은 크게 2가지 특징을 가진다고 보여짐

그래서 이러한 점들을 SSM에 적용한 모델 구조를 제안한 것이 Mamba이다.

Motivation

Structured SSMs provide a principled way to handle long sequences with linear complexity, yet prior SSMs were constrained by time-invariant parameters, meaning they could not adapt to input content and thus missed important context-dependent behavior

Approach