<div dir="ltr"><div dir="ltr">DEADLINE EXTENDED TO February 21, 2020</div><div dir="ltr"><br></div><div dir="ltr">ONION: peOple in laNguage, visIOn and the miNd<br><br>Workshop
 to be held at the 12th Edition of the Language Resources and Evaluation
 Conference, Palais du Pharo, Marseilles, France, on Saturday, May 16 
2020.<br><br><a href="https://onion2020.github.io/" target="_blank">https://onion2020.github.io/</a><br><br>We
 invite paper submissions for the first workshop on People in Language, 
Vision, and the Mind (ONION 2020), which discusses how people, their 
bodies and faces as well as mental states are described in text. We are 
interested in contributions from diverse areas including language 
generation, language analysis, cognitive computing, affective computing.<br><br>Detailed Workshop goals<br>------------------------<br>The
 workshop will provide a forum to present and discuss current research 
focusing on multimodal resources as well as computational and cognitive 
models aiming to describe people in terms of their bodies and faces, 
including their affective state as it is reflected physically. Such 
models might either generate textual descriptions of people, generate 
images corresponding to people’s descriptions, or in general exploit 
multimodal representations for different purposes and applications.  
Knowledge of the way human bodies and faces are perceived, understood 
and described by humans is key to the creation of such resources and 
models, therefore the workshop also invites contributions where the 
human body and face are studied from a cognitive, neurocognitive or 
multimodal communication perspective. <br><br>Human body postures and 
faces are being studied by researchers from different research 
communities, including those working with vision and language modeling, 
natural language generation, cognitive science, cognitive psychology, 
multimodal communication and embodied conversational agents. The 
workshop aims to reach out to all these communities to explore the many 
different aspects of research on the human body and face, including the 
resources that such research needs,  and to foster cross-disciplinary 
synergy.<br><br>The ability to adequately model and describe people in 
terms of their body and face is interesting for a variety of language 
technology applications, e.g., conversational agents and interactive 
multimodal narrative generation, as well as forensic applications in 
which people need to be identified or their images generated from 
textual or spoken descriptions. <br><br>Such systems need resources and 
models where images associated with human bodies and faces are coupled 
with linguistic descriptions, therefore the research needed to develop 
them is placed at the interface between vision and language research. <br><br>At
 the same time, this line of research raises important ethical 
questions, both from the perspective of data collection methodology and 
from the perspective of bias detection and avoidance in models trained 
to process and interpret human attributes.<br><br>By focussing on the 
modelling and processing of physical characteristics of people, and the 
ethical implications of this research, the workshop will explore and 
further develop a particular area within visual and language research. 
Furthermore, it will foster novel cross-disciplinary knowledge by 
soliciting contributions from different fields of research. By 
attempting to bring results from the cognitive and neurocognitive fields
 to the attention of the HLT community, it is also in line with the 
“Language and the Brain” hot topic of LREC 2020.<br><br>Relevant topics<br>----------------<br>We
 are inviting short and long papers reporting original research, 
surveys, position papers, and demos. Authors are strongly encouraged to 
identify and discuss ethical issues arising from their work, insofar as 
it involves the use of image data or descriptions of people.<br><br>- Relevant topics include, but are not limited to, the following ones:<br>- Datasets of facial images, as well as body postures, gestures and their descriptions<br>- Methods for the creation and annotation of multimodal resources dedicated to the description of people<br>- Methods for the validation of  multimodal resources for descriptions of people<br>- Experimental studies of facial expression understanding by humans<br>- Models or algorithms for automatic facial description generation<br>- Emotion recognition by humans<br>- Multimodal automatic emotion recognition from images and text<br>- Subjectivity in face perception<br>- Communicative, relational and intentional aspects of head pose and eye-gaze<br>- Collection and annotation methods for facial descriptions<br>- Coding schemes for the annotation of body posture and facial expression<br>-
 Understanding and description of the human face and body in different 
contexts, including commercial applications, art, forensics, etc. <br>- Modelling of the human body, face and facial expressions for embodied conversational agents<br>- Generation of full-body images and/or facial images from textual descriptions<br>- Ethical and data protection issues related to the collection and/or automatic description of images of real people<br>- Any form of bias in models which seek to make sense of human physical attributes in language and vision.<br><br>Important dates<br>----------------<br>NEW Paper submission deadline:  February 21, 2020<br>Notification of acceptance: March 13, 2020 <br>Camera ready Papers: April 2, 2020<br>Workshop: May 16, 2020 (afternoon)  <br><br>Submission guidelines<br>-----------------------<br>Short
 paper submissions may consist of up to 4 pages of content, while long 
papers may have up to 8 pages of content. References do not count 
towards these page limits.<br><br>All submissions must follow the LREC 
2020 style files, which are available for LaTeX (preferred) and MS Word 
and can be retrieved from the following address: <a href="https://lrec2020.lrec-conf.org/en/submission2020/authors-kit/" target="_blank">https://lrec2020.lrec-conf.org/en/submission2020/authors-kit/</a><br><br>Papers must be submitted digitally, in PDF, and uploaded through the online submission system here: <a href="https://www.softconf.com/lrec2020/ONION2020/" target="_blank">https://www.softconf.com/lrec2020/ONION2020/</a><br><br>The
 authors of accepted papers will be required to submit a camera-ready 
version to be included in the final proceedings. Authors of accepted 
papers will be notified after the notification of acceptance with 
further details.<br><br>Identify, Describe and Share your LRs!<br>----------------------------------------<br>Describing
 your LRs in the LRE Map is now a normal practice in the submission 
procedure of LREC (introduced in 2010 and adopted by other conferences).
 To continue the efforts initiated at LREC 2014 about “Sharing LRs” 
(data, tools, web-services, etc.), authors will have the possibility, 
 when submitting a paper, to upload LRs in a special LREC repository.  
This effort of sharing LRs, linked to the LRE Map for their description,
 may become a new “regular” feature for conferences in our field, thus 
contributing to creating a common repository where everyone can deposit 
and share data.<br>As scientific work requires accurate citations of 
referenced work so as to allow the community to understand the whole 
context and also replicate the experiments conducted by other 
researchers, LREC 2020 endorses the need to uniquely Identify LRs 
through the use of the International Standard Language Resource Number 
(ISLRN, <a href="http://www.islrn.org" target="_blank">www.islrn.org</a>),
 a Persistent Unique Identifier to be assigned to each Language 
Resource. The assignment of ISLRNs to LRs cited in LREC papers  will be 
offered at submission time.<br><br>Organisers<br>-----------<br>Patrizia Paggio, University of Copenhagen and University of Malta, <a href="mailto:paggio@hum.ku.dk" target="_blank">paggio@hum.ku.dk</a><br>Albert Gatt, University of Malta, <a href="mailto:albert.gatt@um.edu.mt" target="_blank">albert.gatt@um.edu.mt</a><br>Roman Klinger, University of Stuttgart, <a href="mailto:roman.klinger@ims.uni-stuttgart.de" target="_blank">roman.klinger@ims.uni-stuttgart.de</a><br><br>Programme committee <br>---------------------<br>Adrian Muscat, University of Malta<br>Andreas Hotho, University of Würzburg<br>Andrew Hendrickson, University of Tilburg<br>Catherine Pelachaud, Institute for Intelligent Systems and Robotics, UPMC and CNRS <br>Costanza Navarretta, CST, University of Copenhagen<br>David Hogg, University of Leeds<br>Diego Frassinelli, University of Stuttgart<br>Isabella Poggi, Roma Tre University<br>Jonas Beskow, KTH Speech, Music and Hearing<br>Jordi Gonzalez, Universitat Autònoma de Barcelona<br>Kristiina.Jokinen, National Institute of Advanced Industrial Science and Technology (AIST)<br>Mihael Arcan,  National University of Ireland, Galway<br>Raffaella Bernardi, CiMEC Trento<br>Sebastian Padó, University of Stuttgart<font color="#888888"><br></font><br clear="all"><br>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr">Albert Gatt<div>Institute of Linguistics and Language Technology</div><div>University of Malta</div><div><a href="http://staff.um.edu.mt/albert.gatt/" target="_blank">http://staff.um.edu.mt/albert.gatt/</a></div></div></div></div></div></div></div>