...
P 값을 1보다 작다면, 예전 노드로 돌아갈 확률이 작아짐
랜덤워크로 생성된 시퀀스를 통해 노트2벡터로 활용-> word2vec 이랑 비슷하다. (상품과 키워드 간의 관계)
2타워 model이 그래프 모델을 대체하고 있다.
네트워크 측면에서 보면, 임베딩을 생성하는 반면에, 투타워는 전체적인 네트워크 구조를 잘 반영하지 못하기도 한다.
그래프 인코더 덕분에 백테 표현이 가능하짐.
텍스트 인코더를 사용.
Positive에 가깝고 Negative에 멀리 되도록 학습을 진행한다.
ID와 Text에 대한 정보를 임베딩으로 표현이 가능해 졌다.
처음은 배치 모델에 대하여 이야기 하고 NMF + MLP로 후처리를 통해서 추천 제공.
실시간에 대하여 이야기함. 상품과 키워드를 인코더로 인코딩을 했다.
시퀀스 모델을 모델을 만들었다. 연속해서 중복이 나타날때, 1개로 치환함.
시퀀스를 이루는 토큰의 벡터로 표현할 수 있다. 토큰 임베딩으로변환
마지막으로 LSTM이나 이런거 안쓰고, Dense를 쓴 이유?
실시간 추론을 위해서 성능을 위해 간단하게 접근하기 위해 접근. 시퀀스 내에서 최근에 클릭한 토큰일 수록 다음에 예측하는게 높다라고 판단.
ROI를 고려해서 만들었고 개선의 여지가 있다.
시퀀스 임베딩과 타겟 키워드 임베딩을 계산해서 로스를 계산하여 Triplet Loss를 계산했다.
실제 서비스 적용 결과. 9월말 앱 업데이트 이후.
유저가 검색 지면에 처음 진입했을때 추천하는 검색 결과.
좌측은 배치 추천이고, 우측은 실시간 추천으로 바뀌게 됨.
추천 모델의 결과를 CTR과 함께 비교했을 때 배치는 64% 효과, 실시간은 2.34배.
마지막으로 개선해야할 과제.
추천 키워드는 인기 키워드로 할 확률이 높지만, 이제 다양성을 통해 고도화를 시도할 예정임.