연일, 뉴스에서 가상화폐 규제와 관련한 뉴스를 때려대니, 가지고 있던 코인들이 폭락했습니다.

 

왜 제가 사면 떨어지고 팔면 다음날 오르는지 아시는분^^?

 

그러다 알게된 코인?? 하나...Initiative Q!

initiativeq.com/invite/Ul_9nhXV3

 

Initiative Q

Join tomorrow's currency, today

initiativeq.com

 

아직 거래소에는 상장되지 않은 코인이라고 합니다.

주식으로 치면 비상장주 라고나 할까?

 

내가 사는 코인마다 폭락을 거듭하니... 그냥 이런거라도 모아보자 싶어서 가입해봄!

어차피 지금은 가치를 찰 모르겠으니 없는셈 묻어두고, 나중에 상장되면 그만, 안되도 아쉬울게 없다.

 

그런 마음으로 시작한 것이기에, Initiative Q에 대해 구구절절 알아보지는 않았다.

 

다만, 

1. Initiative Q는 비트코인같은 암호회폐가 아니다?

2. 전 PayPal 직원들이 프로젝트를 운영한다는것?

 

코인판에도 뉴스에 나오는 것처럼 근본 없는 코인들이 얼마나 많은가?

베이직어텐션에서도 체감했듯, 이런 가상화폐들은 "누가 프로젝트를 주도하는가?" 가 가장 중요한 것 같다.

자기 이름을 걸고 하는 프로젝트를 그 누가 간단히 엎어버리겠는가?

이번에도 한번 믿어본다.

 

다만, 추천인을 통해 가입해야 한다는 점은 뭔가 다단계 스멜이 나긴 하지만,

뭐 나보고 옥장판 사라고 안하니 얼마나 다행인가?

 

목표는 1Q에 1달러라고 한다. 

 

무료로 회원가입하고 승인을 받으면 1,183Q를 주고, 

앱을 설치하면 또 1,136Q를 준다고 한다.

 

총2,272Q 정도를 받는 셈? 

1Q = 1달러가 실제로 이루어지면 좋겟다.

 

아님말고

 

 

막 추천인을 모으려고 쓰는글은 아니므로, 가입방법은 구글에 쳐보면 많이 나와있어서

따로 쓰지는 않습니다.

 

따로 연락안주셔도 그냥 승인하겠습니다 

추천링크는 아래에 남기겠습니다

initiativeq.com/invite/Ul_9nhXV3

 

Initiative Q

Join tomorrow's currency, today

initiativeq.com

 

CONNECTED PAPERS - www.connectedpapers.com/

50,000개의 논문을 분석하여 최근논문, 중요한논문, 인기논문의 네트워크 그래프를 그려준다.

arxiv에도 연동되어 있음

 

Connected Papers | Find and explore academic papers

A unique, visual tool to help researchers and applied scientists find and explore papers relevant to their field of work.

www.connectedpapers.com

 

잘 정리해주신 블로그가 있더라..

heung-bae-lee.github.io/2020/01/07/NLP_00/

 

NLP를 공부하는데 도움되는 사이트 모음

자연어 처리 관련 자료 자연어 처리에 대해 공부할 수 있게 도움이 될 만한 사이트 자연어 처리 강의 딥러닝을 이용한 자연어 처리:https://www.edwith.org/deepnlp 자연어 처리 오프라인 스터디 모임 Deep

heung-bae-lee.github.io

위 블로그에 소개하는 사이트 중

한글강의는 https://www.edwith.org/deepnlp

 

딥러닝을 이용한 자연어 처리 강좌소개 : edwith

- 조경현 교수

www.edwith.org

 

영어강의는 Stanford 자연어 처리 강의 web.stanford.edu/class/cs224n/

 

Stanford CS 224N | Natural Language Processing with Deep Learning

Natural language processing (NLP) is a crucial part of artificial intelligence (AI), modeling how people share information. In recent years, deep learning approaches have obtained very high performance on many NLP tasks. In this course, students gain a tho

web.stanford.edu

위 강의를 "파리의 언어학도" 블로거님이 마음대로(?)아주 잘 정리해주셨다 (감사합니다!)

m.blog.naver.com/PostView.nhn?blogId=jujbob&logNo=221147988848&proxyReferer=https:%2F%2Fwww.google.com%2F 

 

스탠포드 자연어처리 강의 1화 (Natural Language Processing with Deep Learning)

이 글은 강의는 Stanford 자연어처리 강의 CS224n: Natural Language Processing with Deep Learni...

blog.naver.com

 

3.3 Data for scaffold tasks

 

(1) Citation worthiness sampling

  - 인용된 문장만 positive labels로 분류

 

(2)인용 mark 제거

 (e.g., [1]) or name-year combinations (e.g, Lee et al (2012)) 와 같은 인용마크들을 제거

 

(3) Section title mapping

ACL-ARC데이터와 시멘틱스칼라 데이터 각각의 인용문과 정규화된 Section title을 매핑

normalized section titles: “introduction”, “related work”, “method”, “experiments”, “conclusion”

매핑되지 않은 문장들은 삭제


- scaffold tasks 결과

  - ACL-ARC

  Section title scaffold - 47K, Citation worthiness 50K

  - SciCite

  Section title scaffold - 91K, Citation worthiness 73K

 

 

 

4 Experiments

  4.1 Implementation

  - AllenNLP 라이브러리를 사용하여 구현 (Gardner et al., 2018).
  - Word representations 위해 100차원 GloVe vectors (Pennington et al., 2014) 사용함.

  - Contextual representation을 위해 Output size 1,024차원의 ELMo vector를 사용 (released by Peters et al. (2018))

  - Single-layer BiLSTM 사용(hidden dimension size = 50)

  - 각 Scaffold tasks는 20 hidden nodes와 activation function "ReLU" (Nair and Hinton, 2010), Dropout 0.2 (Srivastava et al., 2014)

 

  - hyperparameter

 

  - ACL-ARC

    Citation worthiness saffold: λ2=0.08, λ3=0

    Ssection title scaffold: λ3=0.09, λ2=0

    Both scaffolds: λ2=0.1, λ3=0.05. Batch size: 8

  - SciCite

    0.0 to 0.3 grid search, Batch size: 32

 

실험에 사용된 Code 와 Data, Model은 SciCite Github 참고

 

4.3 Results - SciCite와 ACL-ARC F1-score 비교

 

4.3 Results - SciCite와 ACL-ARC 의도분류 성능비교

  - 문장(instances)이 많은 카테고리의 경우 일반적으로 결과가 좋게 나타남(ex ACL의 Background vs Future Work)

  - 학습대상문장이 적을경우 최적매개변수(optimal paramete)를 학습하기 어렵기 때문임.

 

 

4.4 Analysis

성능이 가장 뛰어난 두 모델, ‘BiLSTM-Attn w/ ELMo + both scaffolds’ 와 ‘BiLSTMAttn w/ ELMO’(baseline)의 attention weight 비교함.(Fig.3)

  - (Fig. 3a)의 실제 레이블은 Future Work, 단어 "future" 주변에 더 많은 가중치를 부여함,

    baseline 모델은 "compare"에 더 많은 가중치를 부여하여 Compare 레이블로 잘못 예측함.

 

  - (Fig. 3b)에서 실제 레이블은 Result Comparison, 비교의 의미 "than"에 가중치 부여

    baseline모델은 “analyzed seprately” 에 가중치를 부여하여 "Background"로 잘못분류함.

 

 

 

- Error analysis

  - (Fig.4) classification error를 나타냄, 오류는 주로 Background 카테고리에서 발생.

- 표7의 첫 문장은  “model in (citation)” and “ILP formulation from (citation)” 부분때문에 노이즈가 발생하여 오분류됨.

(Motivation 분류의 학습데이터 수가 적기 때문일 수 있음)

- 네번째 문장은 분류가 애매함.

 

- 이러한 유형의 오류를 방지 할 수있는 방법은 학습을 위한 input 데이터를 추가 하거나

모델링 시에 extended surrounding context를 적용하는 것임

 

위 오류 개선을 위해 BiLSTM을 사용하여 extended surrounding context 인코딩을 실시하고 main citation context vector (z)와 연결했지만, 전체적으로 노이즈가 늘어나 성능이 크게 저하됨을 알 수 있음.

 

 

5 Related Work

  기존에 인용의도 분류에 관한 연구들 (Stevens and Giuliano, 1965; Moravcsik and Murugesan, 1975; Garzone and Mercer, 2000; White, 2004; Ahmed et al., 2004; Teufel et al. , 2006; Agarwal et al., 2010; Dong and Schafer ¨, 2011).은 인용의도 분류의 범주가 너무 세분화 되어있고, 어떤 분류범주는 거의 없는경우도 많아 과학문헌의 자동분석에는 유용하지 않다.

 

이러한 문제를 해결하기 위해 Jurgens et al. (2018)은 인용의도에 대한 6가지 분류범주를 제안했다

본 논문에서는 (1)Jurgens가 제안한 분류범주와 (2)우리가 제안한 좀더 "범용적인" 분류범주 두가지를 비교했다.

그 결과, domainspecific한 기존의 Scheme들과 달리, 우리의 Scheme은 일반적인 과학적 담론에 적합함을 확인할 수 있었다.

 

자동인용의도분류 초기에는 규칙기반 위주의 연구가 이뤄짐(Garzone and Mercer, 2000; Pham and Hoffmann, 2003))

이후 다양한 연구들이 진행되었으며, 우리는 데이터 기반의 방법으로 인용의도를 분류할 수 있음을 확인했다.

이를 “scaffold”라는 용어를 차용하여 인용의도 분류를 위한 novel scaffold neural model 을 제안한다

 

 

6 Conclusions and future work

이 연구에서 우리는 과학적 담론과 관련된 구조적 속성이 인용 의도 분류를 알리는 데 효과적으로 사용될 수 있음을 보여줍니다.

 

 우리가 제안한 모델은 기존 ACL-ARC 데이터 세트에서 최고점(F1-score 67.9)으로, 기존연구의 점수보다 13.3점 높았다.

 

새로운 대규모 데이터셋인 SciCite에서도 우리 모델의 성능은 더 우수하며, scientific domains에 범용적으로 활용할 수 있다.

본 논문의 최종제출시점에 Beltagy et al (2019)은 과학 텍스트 pre-trained model인 BERT contextualized representation model(Devlin et al., 2018)이 SciCite데이터셋에서 더 좋은 결과를 얻을 수 있음을 보여주었다

amankharwal.medium.com/160-data-science-and-machine-learning-projects-solved-and-explained-cc92f401a995

 

160 Data Science and Machine Learning Projects Solved and Explained

160 Data Science and Machine Learning Projects Solved and Explained with Python.

amankharwal.medium.com

 

 

-출처-

koreapy.tistory.com/

GNN 리뷰논문 - ieeexplore.ieee.org/abstract/document/9046288

Wu, Z., Pan, S., Chen, F., Long, G., Zhang, C., & Philip, S. Y. (2020). A comprehensive survey on graph neural networks. IEEE transactions on neural networks and learning systems.

 

A Comprehensive Survey on Graph Neural Networks

Deep learning has revolutionized many machine learning tasks in recent years, ranging from image classification and video processing to speech recognition and natural language understanding. The data in these tasks are typically represented in the Euclidea

ieeexplore.ieee.org

'논문 > 읽을거리' 카테고리의 다른 글

인용의도 분석 관련 논문 survey  (0) 2021.03.23

 

SciCite - arxiv.org/pdf/1904.01608.pdf

Cohan, A., Ammar, W., Van Zuylen, M., & Cady, F. (2019). Structural scaffolds for citation intent classification in scientific publications. arXiv preprint arXiv:1904.01608.

 

Structural Scaffolds for Citation Intent Classification in Scientific Publications

Identifying the intent of a citation in scientific papers (e.g., background information, use of methods, comparing results) is critical for machine reading of individual publications and automated analysis of the scientific literature. We propose structura

arxiv.org

Github - github.com/allenai/scicite

 

allenai/scicite

Repository for NAACL 2019 paper on Citation Intent prediction - allenai/scicite

github.com

Tensorflow SciCite Dataset - www.tensorflow.org/datasets/catalog/scicite

 

scicite  |  TensorFlow Datasets

학술 논문에서 인용 의도를 분류하기위한 데이터 세트입니다. 각 Json 객체의 기본 인용 의도 레이블은 레이블 키로 지정되고 인용 컨텍스트는 컨텍스트 키로 지정됩니다. 예 : { 'string': 'chacma 개

www.tensorflow.org

 

 

 

 

 

인용의도 선행연구 - transacl.org/ojs/index.php/tacl/article/view/1266

Jurgens, D., Kumar, S., Hoover, R., McFarland, D., & Jurafsky, D. (2018). Measuring the evolution of a scientific field through citation frames. Transactions of the Association for Computational Linguistics, 6, 391-406.

 

Measuring the Evolution of a Scientific Field through Citation Frames | Jurgens | Transactions of the Association for Computatio

Abstract Citations have long been used to characterize the state of a scientific field and to identify influential works. However, writers use citations for different purposes, and this varied purpose influences uptake by future scholars.  Unfortunately,

transacl.org

 

 

 

 

Paper With Code / SciCite Ranking - SciBERT 1위

paperswithcode.com/sota/sentence-classification-on-scicite

 

Papers with Code - SciCite Benchmark (Sentence Classification)

The current state-of-the-art on SciCite is SciBERT. See a full comparison of 6 papers with code.

paperswithcode.com

 

 

 

SciBert - arxiv.org/abs/1903.10676

Beltagy, I., Lo, K., & Cohan, A. (2019). SciBERT: A pretrained language model for scientific text. arXiv preprint arXiv:1903.10676.

 

SciBERT: A Pretrained Language Model for Scientific Text

Obtaining large-scale annotated data for NLP tasks in the scientific domain is challenging and expensive. We release SciBERT, a pretrained language model based on BERT (Devlin et al., 2018) to address the lack of high-quality, large-scale labeled scientifi

arxiv.org

Github - github.com/allenai/scibert

 

allenai/scibert

A BERT model for scientific text. Contribute to allenai/scibert development by creating an account on GitHub.

github.com

 

 

 

ImpactCite - arxiv.org/abs/2005.06611

Mercier, D., Rizvi, S. T. R., Rajashekar, V., Dengel, A., & Ahmed, S. (2020). ImpactCite: An XLNet-based method for Citation Impact Analysis. arXiv preprint arXiv:2005.06611.

 

ImpactCite: An XLNet-based method for Citation Impact Analysis

Citations play a vital role in understanding the impact of scientific literature. Generally, citations are analyzed quantitatively whereas qualitative analysis of citations can reveal deeper insights into the impact of a scientific artifact in the communit

arxiv.org

Github - github.com/DominiqueMercier/ImpactCite

 

DominiqueMercier/ImpactCite

ImpactCite: A XLNet-based Solution Enabling Qualitative CitationImpact Analysis Utilizing Sentiment and Intent - DominiqueMercier/ImpactCite

github.com

 

 

 

기타  / 3C 분류 성능평가 - oro.open.ac.uk/73290/

Kunnath, S. N., Pride, D., Gyawali, B., & Knoth, P. (2020). Overview of the 2020 wosp 3c citation context classification task. In Proceedings of the 8th International Workshop on Mining Scientific Publications (pp. 75-83). Association for Computational Linguistics.

 

Overview of the 2020 WOSP 3C Citation Context Classification Task - Open Research Online

Kunnath, Suchetha N.; Pride, David; Gyawali, Bikash and Knoth, Petr (2020). Overview of the 2020 WOSP 3C Citation Context Classification Task. In: Proceedings of the 8th International Workshop on Mining Scientific Publications, Association for Computationa

oro.open.ac.uk

 

'논문 > 읽을거리' 카테고리의 다른 글

GNN- Graph Neural Network 관련 Survey  (0) 2021.03.23

비트코인 열풍이 한창이던 2018년,

 

다행히 코인으로 패가망신 하지 않는선에서 손을 털고 나왔었다.

 

그러다 최근에 알게된 '베이직어텐션토큰(BAT)' 이란걸 알게됐는데, 설명은 이렇다.

 

 

베이직어텐션토큰(BAT; Basic Attention Token, 注意力币)은 블록체인 기반의 디지털 광고 플랫폼을 위해 설계된 분산형 암호화폐이다. 자바스크립트 언어와 파이어폭스 웹브라우저를 만들었던 미국의 브렌든 아이크(Brendan Eich)가 설립한 브레이브 소프트웨어(Brave Software)가 개발한 프로젝트로 이더리움 플랫폼 ERC-20 기반의 토큰이다. 베이직어텐션토큰의 티커는 BAT이다. 2017년 3월 31일 베이직어텐션토큰에 대한 ICO를 진행하여, 불과 30초만에 3,500만 달러(약 380억원)를 모금했다. 한국의 업비트 고팍스 거래소 등에 상장되어 있다. 시가 총액은 3억 달러로 30위를 기록하고 있다.[1] 베이직어텐션토큰과 유사한 블록체인 기반의 광고 플랫폼에는 애드엑스, 애드토큰, 위블락 등이 있다. (출처: 해시넷-wiki.hash.kr/index.php/베이직어텐션토큰)

 

 

 

무엇보다 신뢰가 갔던점은, BAT 개발자가 브랜든 아이크이기 때문이었다.

 

무려 자바스크립트언어와 모질라, 파이어폭스 브라우저를 만든장본인이다.

 

JavaScript의 아버지 브랜든 아이크 형님

 

다른 전문용어는 잘 모르지만, 한마디로 정리하면

 

브레이브 브라우저를 통해 광고를 하는 사람이, 광고를 보는 사람에게 BAT를 지불하는 구조라고 보면 된다.

 

(다른 코인들은 실제 거래소 밖에서 이렇게 실제로 이용되는걸 나는 본적이 없다.)

 

브레이브 브라우저가 BAT의 활용 플랫폼인 셈!

 

브레이브 브라우저는 brave.com/ko/download/ 요기서 다운로드 받을 수 있다

 

 

Brave 다운로드 | Brave Browser

The Brave browser is a fast, private and secure web browser for PC, Mac and mobile. Download now to enjoy a faster ad-free browsing experience that saves data and battery life by blocking tracking software.

brave.com

 

브레이브 브라우저를 써보니 잘 안알려져서 그렇제 확실히 장점이 많은 브라우저이다.

 

크롬 기반으로 만들어진 브라우저로, 설치는 크롬만큼 간편하다.

 

새탭 화면, 좌측상단에 광고차단건수와 절약된 시간이 표시된다. 우측에는 보상으로 받은 BAT를 확인할 수 있다.

<장점>

- 광고와 악성코드를 확실히 제거해 준다.

- 유투브 광고도 없애준다.

- 브레이브 브라우저 광고에 대한 보상으로 BAT를 받을 수 있다.

- 광고로 인한 데이터소모가 줄어들고 브라우징 속도가 훨씬 빨라진다.

- 홈텍스, 은행 등도 무리없이 동작한다.

 

<단점>

- 크롬 기반이라고는 하지만 번역기능이 안된다.

- 아직 사용자가 많이 없는 편이다. 

 

<네이버 메인화면 비교>

좌측이 Brave 브라우저, 우측이 Chrome브라우저다. 광고가 없어져서 확실히 클린해졌다.

 

<BAT 보상>

 

브라우저 "설정" 메뉴에서 "Brave Rewards"를 클릭하면 리워드 설정을 할 수 있다.

 

광고를 제거해주는 브라우저라고 해놓고 광고를 본다니 무슨말인가? 싶겠지만

 

Brave를 통해 제공되는 광고가 따로 있는것 같고, 저렇게 광고를 켜 놓으면 

 

자동으로 코인이 적립되는 것 같다.

 

 

Brave Rewards 화면

 

솔직히 지금의 코인판은 거의 FX 마진거래와 다를게 없어보인다.

 

호재나 개발진행따위는 상관없고 돈놓고 돈먹는 홀짝게임일뿐...

 

일반적인 짤짤이 코인들은 백서나 개발결과물도 부실한데 반해서

BAT는 브레이브 브라우저라는 확실히 눈에 보이는 결과가 있어서 신뢰가 간다.

 

브라우저도 괜찮고, 자체 검색엔진도 개발중이라고 하니, 길게보자는 마음으로 투자했다.

 

너무 고점에 들어간거 아닌가 싶지만... 어쨋든 떡상중이다

 

 

 

< 출처 >

namu.wiki/w/Brave

brave.com/ko/download/

webruden.tistory.com/654

wiki.hash.kr/index.php/베이직어텐션토큰

namu.wiki/w/브랜든%20아이크

'큰쥐의 주절주절' 카테고리의 다른 글

Initiative Q : 페이팔 코인이라?!  (2) 2021.04.23
티스토리 스킨 / 프라치노 공간  (1) 2021.03.10

오랜만에 티스토리를 들어왔는데 스킨이 마음에 들지 않는다.

무료스킨이라 그런가?

 

블로그 여기저기를 다니다가 마음에 드는 스킨이 적용된 블로그를 발견했다

Echte Liebe -Normal One- 이라는 분의 블로그인데 메인부터 간지가 풍긴다.

나와는 다르게 교양과 식견이 풍부한 분이신듯...?

 

Echte Liebe

돌아다니며 사진찍고, 책도 읽고, 그깟 공놀이에 일희일비한 기록을 글로 남기는 평범한 공간. (복붙식 댓글 혐오합니다. 진짜 욕할지도 몰라요.)

schluss.kr

 

참고로 절대 스킨구매 광고가 아니며, 블로그 작성에 습관이 조금 들이고 나면

스킨을 구매해 보려고 적는 글임을 밝힌다(까먹을까봐)

 

스킨의 판매처는 FRACCINO SPACE /'프라치노 공간' 이라는 곳이다.

가격은 무려 $39.99로 한화 약 4만 5천원 가량!

 

프라치노 공간

티스토리 스킨 배포, 다운로드. 블로그 콘텐츠가 돋보이는 반응형 스킨.

fraccinospace.tistory.com

 

..........................??

 

일주일에 글 하나 업로드 할까 말까 한 나로서는 조금 부담되는 가격이다.

가지고 있는자료가 어느정도 업로드되고 나면 구매해서 적용해야겠다.

Echte Liebe -Normal One- 님의 간지나는 메인화면

 

무엇보다 카카오톡을 닮은 댓글창이 엄청 깔끔해보임. 

댓글창이다. 마치 카카오톡으로 대화하는듯한 느낌이 든다.

 

+ Recent posts