當(dāng)前位置: 首頁 JCRQ3 期刊介紹(非官網(wǎng))
    Journal On Multimodal User Interfaces

    Journal On Multimodal User InterfacesSCIE

    國際簡(jiǎn)稱:J MULTIMODAL USER IN  參考譯名:多模式用戶界面雜志

    • 中科院分區(qū)

      3區(qū)

    • CiteScore分區(qū)

      Q2

    • JCR分區(qū)

      Q3

    基本信息:
    ISSN:1783-7677
    E-ISSN:1783-8738
    是否OA:未開放
    是否預(yù)警:否
    TOP期刊:否
    出版信息:
    出版地區(qū):GERMANY
    出版商:Springer International Publishing
    出版語言:English
    出版周期:4 issues per year
    出版年份:2007
    研究方向:COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE-COMPUTER SCIENCE, CYBERNETICS
    評(píng)價(jià)信息:
    影響因子:2.2
    H-index:22
    CiteScore指數(shù):6.9
    SJR指數(shù):0.678
    SNIP指數(shù):1.177
    發(fā)文數(shù)據(jù):
    Gold OA文章占比:37.31%
    研究類文章占比:92.00%
    年發(fā)文量:25
    自引率:0.0344...
    開源占比:0.2706
    出版撤稿占比:0
    出版國人文章占比:0.02
    OA被引用占比:0.1504...
    英文簡(jiǎn)介 期刊介紹 CiteScore數(shù)據(jù) 中科院SCI分區(qū) JCR分區(qū) 發(fā)文數(shù)據(jù) 常見問題

    英文簡(jiǎn)介Journal On Multimodal User Interfaces期刊介紹

    The Journal of Multimodal User Interfaces publishes work in the design, implementation and evaluation of multimodal interfaces. Research in the domain of multimodal interaction is by its very essence a multidisciplinary area involving several fields including signal processing, human-machine interaction, computer science, cognitive science and ergonomics. This journal focuses on multimodal interfaces involving advanced modalities, several modalities and their fusion, user-centric design, usability and architectural considerations. Use cases and descriptions of specific application areas are welcome including for example e-learning, assistance, serious games, affective and social computing, interaction with avatars and robots.

    期刊簡(jiǎn)介Journal On Multimodal User Interfaces期刊介紹

    《Journal On Multimodal User Interfaces》自2007出版以來,是一本計(jì)算機(jī)科學(xué)優(yōu)秀雜志。致力于發(fā)表原創(chuàng)科學(xué)研究結(jié)果,并為計(jì)算機(jī)科學(xué)各個(gè)領(lǐng)域的原創(chuàng)研究提供一個(gè)展示平臺(tái),以促進(jìn)計(jì)算機(jī)科學(xué)領(lǐng)域的的進(jìn)步。該刊鼓勵(lì)先進(jìn)的、清晰的闡述,從廣泛的視角提供當(dāng)前感興趣的研究主題的新見解,或?qū)彶槎嗄陙砟硞€(gè)重要領(lǐng)域的所有重要發(fā)展。該期刊特色在于及時(shí)報(bào)道計(jì)算機(jī)科學(xué)領(lǐng)域的最新進(jìn)展和新發(fā)現(xiàn)新突破等。該刊近一年未被列入預(yù)警期刊名單,目前已被權(quán)威數(shù)據(jù)庫SCIE收錄,得到了廣泛的認(rèn)可。

    該期刊投稿重要關(guān)注點(diǎn):

    Cite Score數(shù)據(jù)(2024年最新版)Journal On Multimodal User Interfaces Cite Score數(shù)據(jù)

    • CiteScore:6.9
    • SJR:0.678
    • SNIP:1.177
    學(xué)科類別 分區(qū) 排名 百分位
    大類:Computer Science 小類:Signal Processing Q2 34 / 131

    74%

    大類:Computer Science 小類:Human-Computer Interaction Q2 49 / 145

    66%

    CiteScore 是由Elsevier(愛思唯爾)推出的另一種評(píng)價(jià)期刊影響力的文獻(xiàn)計(jì)量指標(biāo)。反映出一家期刊近期發(fā)表論文的年篇均引用次數(shù)。CiteScore以Scopus數(shù)據(jù)庫中收集的引文為基礎(chǔ),針對(duì)的是前四年發(fā)表的論文的引文。CiteScore的意義在于,它可以為學(xué)術(shù)界提供一種新的、更全面、更客觀地評(píng)價(jià)期刊影響力的方法,而不僅僅是通過影響因子(IF)這一單一指標(biāo)來評(píng)價(jià)。

    歷年Cite Score趨勢(shì)圖

    中科院SCI分區(qū)Journal On Multimodal User Interfaces 中科院分區(qū)

    中科院 2023年12月升級(jí)版 綜述期刊:否 Top期刊:否
    大類學(xué)科 分區(qū) 小類學(xué)科 分區(qū)
    計(jì)算機(jī)科學(xué) 3區(qū) COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE 計(jì)算機(jī):人工智能 COMPUTER SCIENCE, CYBERNETICS 計(jì)算機(jī):控制論 4區(qū) 4區(qū)

    中科院分區(qū)表 是以客觀數(shù)據(jù)為基礎(chǔ),運(yùn)用科學(xué)計(jì)量學(xué)方法對(duì)國際、國內(nèi)學(xué)術(shù)期刊依據(jù)影響力進(jìn)行等級(jí)劃分的期刊評(píng)價(jià)標(biāo)準(zhǔn)。它為我國科研、教育機(jī)構(gòu)的管理人員、科研工作者提供了一份評(píng)價(jià)國際學(xué)術(shù)期刊影響力的參考數(shù)據(jù),得到了全國各地高校、科研機(jī)構(gòu)的廣泛認(rèn)可。

    中科院分區(qū)表 將所有期刊按照一定指標(biāo)劃分為1區(qū)、2區(qū)、3區(qū)、4區(qū)四個(gè)層次,類似于“優(yōu)、良、及格”等。最開始,這個(gè)分區(qū)只是為了方便圖書管理及圖書情報(bào)領(lǐng)域的研究和期刊評(píng)估。之后中科院分區(qū)逐步發(fā)展成為了一種評(píng)價(jià)學(xué)術(shù)期刊質(zhì)量的重要工具。

    歷年中科院分區(qū)趨勢(shì)圖

    JCR分區(qū)Journal On Multimodal User Interfaces JCR分區(qū)

    2023-2024 年最新版
    按JIF指標(biāo)學(xué)科分區(qū) 收錄子集 分區(qū) 排名 百分位
    學(xué)科:COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE SCIE Q3 120 / 197

    39.3%

    學(xué)科:COMPUTER SCIENCE, CYBERNETICS SCIE Q3 17 / 32

    48.4%

    按JCI指標(biāo)學(xué)科分區(qū) 收錄子集 分區(qū) 排名 百分位
    學(xué)科:COMPUTER SCIENCE, ARTIFICIAL INTELLIGENCE SCIE Q3 139 / 198

    30.05%

    學(xué)科:COMPUTER SCIENCE, CYBERNETICS SCIE Q3 18 / 32

    45.31%

    JCR分區(qū)的優(yōu)勢(shì)在于它可以幫助讀者對(duì)學(xué)術(shù)文獻(xiàn)質(zhì)量進(jìn)行評(píng)估。不同學(xué)科的文章引用量可能存在較大的差異,此時(shí)單獨(dú)依靠影響因子(IF)評(píng)價(jià)期刊的質(zhì)量可能是存在一定問題的。因此,JCR將期刊按照學(xué)科門類和影響因子分為不同的分區(qū),這樣讀者可以根據(jù)自己的研究領(lǐng)域和需求選擇合適的期刊。

    歷年影響因子趨勢(shì)圖

    發(fā)文數(shù)據(jù)

    2023-2024 年國家/地區(qū)發(fā)文量統(tǒng)計(jì)
    • 國家/地區(qū)數(shù)量
    • USA18
    • France12
    • GERMANY (FED REP GER)12
    • Netherlands9
    • Australia8
    • England7
    • Sweden6
    • Canada5
    • Ireland5
    • Turkey5

    本刊中國學(xué)者近年發(fā)表論文

    • 1、Prediction of interface preferences with a classifier selection approach

      Author: Elena Vildjiounaite, Daniel Schreiber, Vesa Kyll?nen, Marcus St?nder, Ilkka Niskanen, Jani M?ntyj?rvi

      Journal: Journal on Multimodal User Interfaces, 2013, Vol.7, 321-349, DOI:10.1007/s12193-013-0127-y

    • 2、Eye moving behaviors identification for gaze tracking interaction

      Author: Qijie Zhao, Xinming Yuan, Dawei Tu, Jianxia Lu

      Journal: Journal on Multimodal User Interfaces, 2014, Vol.9, 89-104, DOI:10.1007/s12193-014-0171-2

    • 3、Emotion recognition in the wild via sparse transductive transfer linear discriminant analysis

      Author: Yuan Zong, Wenming Zheng, Xiaohua Huang, Keyu Yan, Jingwei Yan, Tong Zhang

      Journal: Journal on Multimodal User Interfaces, 2016, Vol.10, 163-172, DOI:10.1007/s12193-015-0210-7

    • 4、Video modeling and learning on Riemannian manifold for emotion recognition in the wild

      Author: Mengyi Liu, Ruiping Wang, Shaoxin Li, Zhiwu Huang, Shiguang Shan, Xilin Chen

      Journal: Journal on Multimodal User Interfaces, 2015, Vol.10, 113-124, DOI:10.1007/s12193-015-0204-5

    • 5、Combining feature-level and decision-level fusion in a hierarchical classifier for emotion recognition in the wild

      Author: Bo Sun, Liandong Li, Xuewen Wu, Tian Zuo, Ying Chen, Guoyan Zhou, Jun He, Xiaoming Zhu

      Journal: Journal on Multimodal User Interfaces, 2015, Vol.10, 125-137, DOI:10.1007/s12193-015-0203-6

    • 6、Gesture recognition based on HMM-FNN model using a Kinect

      Author: Xiao-Li Guo, Ting-Ting Yang

      Journal: Journal on Multimodal User Interfaces, 2016, Vol.11, 1-7, DOI:10.1007/s12193-016-0215-x

    投稿常見問題

    通訊方式:ONE NEW YORK PLAZA, SUITE 4600 , NEW YORK, United States, NY, 10004。

    主站蜘蛛池模板: 免费无码一区二区三区蜜桃大| 一区一区三区产品乱码| 一区二区三区视频免费观看| 亚洲色精品vr一区二区三区 | 香蕉久久AⅤ一区二区三区 | 一区二区三区精品视频| 农村人乱弄一区二区| 在线观看视频一区二区| 亚洲午夜电影一区二区三区 | 国产一区在线电影| 鲁丝片一区二区三区免费| 国产一区二区三区在线观看影院| 国产精品毛片VA一区二区三区| 一区二区三区四区在线播放| 无码人妻aⅴ一区二区三区有奶水| 伊人色综合一区二区三区| 三上悠亚亚洲一区高清| 日本精品夜色视频一区二区| 国产丝袜一区二区三区在线观看 | 韩国精品一区视频在线播放| 亚洲国产AV无码一区二区三区| 中文字幕一区二区三区人妻少妇| 久久青草国产精品一区| 久久精品国产一区| 精品无码人妻一区二区免费蜜桃| 无码精品国产一区二区三区免费| 亚洲伦理一区二区| 日韩亚洲AV无码一区二区不卡| 久久一区二区三区精品| 亚洲AV无码一区二区三区牛牛| ...91久久精品一区二区三区| 3d动漫精品啪啪一区二区中| 亚洲一区AV无码少妇电影| 亚洲av色香蕉一区二区三区蜜桃 | 亚洲av无码片区一区二区三区| 亚洲国产精品自在线一区二区| 精品视频无码一区二区三区| 无码日韩人妻av一区免费| 国产亚洲综合一区二区三区| 国产午夜毛片一区二区三区| 久久高清一区二区三区|