five

Coding valence in touchscreen interactions: Hand dominance and lateral movement influence valence appraisals of emotional pictures|情感认知数据集|触摸屏交互数据集

收藏
DataCite Commons2020-09-01 更新2024-07-27 收录
情感认知
触摸屏交互
下载链接:
https://figshare.com/articles/dataset/Coding_valence_in_touchscreen_interactions_Hand_dominance_and_lateral_movement_influence_valence_appraisals_of_emotional_pictures_submitted_study_/5457268/2
下载链接
链接失效反馈
资源简介:
The Body-Specificity Hypothesis postulates that the space surrounding the dominant hand is perceived as positive due to the motor fluency of this hand, whereas the space surrounding the non-dominant hand is perceived as negative. Experimental studies based on this theoretical framework also revealed associations between affective valence and hand dominance (i.e., dominant hand—positive; non-dominant hand—negative), or lateral movements of the hands (i.e., right hand toward the right space—positive; left hand toward the left space—positive). Interestingly, these associations have not been examined with regard to how lateral actions of the hands may influence affective experiences as, for example, in valence appraisals of affective objects that have been manipulated. The study presented here has considered this question in light of the emerging interest of embodied cognition approaches to interactive technologies, particularly in affective experiences with touchscreen interfaces. Accordingly, right-handed participants evaluated the valence of positive and negative emotional pictures after interacting with them either with the dominant right or with the non-dominant left hand. Specifically, they moved the pictures either from left to right or from right to left sides of a touchscreen monitor. The results indicated that a valence matching between the hand used for the interactions, the picture’s valence category, and the movement’s starting side reinforced the valence appraisals of the pictures (i.e., positive/negative pictures were more positively/negatively evaluated). The findings are discussed against the background of the Theory of Event Coding, which accounts for both the affective properties of the stimuli and the affective connotation of the related action.
提供机构:
figshare
创建时间:
2018-02-19
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

CE-CSL

CE-CSL数据集是由哈尔滨工程大学智能科学与工程学院创建的中文连续手语数据集,旨在解决现有数据集在复杂环境下的局限性。该数据集包含5,988个从日常生活场景中收集的连续手语视频片段,涵盖超过70种不同的复杂背景,确保了数据集的代表性和泛化能力。数据集的创建过程严格遵循实际应用导向,通过收集大量真实场景下的手语视频材料,覆盖了广泛的情境变化和环境复杂性。CE-CSL数据集主要应用于连续手语识别领域,旨在提高手语识别技术在复杂环境中的准确性和效率,促进聋人与听人社区之间的无障碍沟通。

arXiv 收录

MedChain

MedChain是由香港城市大学、香港中文大学、深圳大学、阳明交通大学和台北荣民总医院联合创建的临床决策数据集,包含12,163个临床案例,涵盖19个医学专科和156个子类别。数据集通过五个关键阶段模拟临床工作流程,强调个性化、互动性和顺序性。数据来源于中国医疗网站“iiYi”,经过专业医生验证和去识别化处理,确保数据质量和患者隐私。MedChain旨在评估大型语言模型在真实临床场景中的诊断能力,解决现有基准在个性化医疗、互动咨询和顺序决策方面的不足。

arXiv 收录

CAP-DATA

CAP-DATA数据集由长安大学交通学院的研究团队创建,包含11,727个交通事故视频,总计超过2.19百万帧。该数据集不仅标注了事故发生的时间窗口,还提供了详细的文本描述,包括事故前的实际情况、事故类别、事故原因和预防建议。数据集的创建旨在通过结合视觉和文本信息,提高交通事故预测的准确性和解释性,从而支持更安全的驾驶决策系统。

arXiv 收录

LibriSpeech

LibriSpeech 是一个大约 1000 小时的 16kHz 英语朗读语音语料库,由 Vassil Panayotov 在 Daniel Povey 的协助下编写。数据来自 LibriVox 项目的已读有声读物,并经过仔细分割和对齐。

OpenDataLab 收录

FAOSTAT Agricultural Data

FAOSTAT Agricultural Data 是由联合国粮食及农业组织(FAO)提供的全球农业数据集。该数据集涵盖了农业生产、贸易、价格、土地利用、水资源、气候变化、人口统计等多个方面的详细信息。数据包括了全球各个国家和地区的农业统计数据,旨在为政策制定者、研究人员和公众提供全面的农业信息。

www.fao.org 收录