在生活中,许多事情看起来是那么稀松平常,像是了解眼前事物的用途、看一部电影、为自己拍一张照片、购物后用手机付款……这些对我们来说自然而然的经历,对身体存在障碍的特殊群体而言,却可能是可望而不可即的体验。
如何帮助特殊群体勇敢跨出家门,享受和普通人一样“稳稳的幸福”?关于这点,华为EMUI一直在努力——从EMUI 5.1的Talkback功能正式上线,到历经多次迭代增添了多个便捷功能的的EMUI 11,可以说如今搭载着EMUI 11的华为手机,是一部真正兼顾了不同人群需求、充满着温暖细节的“无障碍”体验手机。
智慧助手-微光的世界里,它成为你的双眼
EMUI 11智慧助手的成长和蜕变,为视障人士开启了一道崭新的通往外部世界的大门。
从前,视力不佳的人士独自出门时,很难获取到街上纷杂繁复的文字信息,想要了解前方店铺招牌或指示牌上的内容时,通常只能求助于热心路人。升级到EMUI 11后,通过智慧助手,华为手机的摄像头可以充当用户的眼睛,获取周遭物体的信息。
当想知道前方存在什么的时候,用户只需唤醒语音助手,询问它:“帮我看看这是什么?”小艺即会自动打开摄像头,通过语音描述镜头里的“风景”,帮助视障人群随时随地认识周围环境,拉近与现实世界的距离。
除了协助用户“看到”物体,智慧助手还能朗读出视野内的文本信息,让视障人士能更加深入地了解事物。比如不清楚手中零食的食用方法时,打开屏幕朗读,将手机摄像头对准零食包装袋并吩咐语音助手:“帮我翻译一下这篇文章”,小艺会调出智慧视觉功能,由左至右、从上到下地朗读包装上面的文字,使弱视群体在没有他人协助的情况下,也能自己掌握所需的信息。
华为相机-看不见的镜头里,你也可以被记录
如果说智慧助手的“眼睛”,为视力不佳的小伙伴实现了更好感知外部世界的愿望。那是不是也存在这么一个工具,能帮助他们以影像的方式记录生活、表达自己呢?对此,升级到EMUI 11的华为相机给出了显而易见的答案。
在EMUI 11,华为相机与屏幕阅读器做了进一步的适配,增加了相机人像提示功能,让拍照这个极其依赖于视觉的动作,也可以通过语音提示来完成定位。若视障用户想为自己拍一张照片,在启动屏幕朗读的情况下进入自拍模式,通过小艺的提醒就能知道自己目前正处于取景框中的什么位置;此时,如果有他人的脸入镜,小艺会及时提示取景框内的面部数量,让用户在看不见的情况下,也能轻松获得想要的照片。
AI字幕-无声的岁月中,它为你揭开迷雾
如果有些小伙伴无法通过耳朵接收信息,不如试试将手机升级到EMUI 11,让声音传达的信息能被眼睛所接收。
在EMUI 11,多了一个非常贴心的新功能——AI字幕,支持将声音转换成文字。开启这个功能后,无论是在线直播、视频中的声音,还是麦克风收录到的声音,都能实时转成字幕显示在手机屏幕上。
通过阅读实时字幕,听觉存在障碍的用户就可以轻松理解身边人说的每一句话,面对面交流从此变得简单高效,心与心之间的距离也将不断靠近;与此同时,有了AI字幕的准确提示,他们也可以放心观看原本不带字幕的视频,尽情沉浸在光与影所营造出来的绚丽多姿的世界中,不断拓宽生命的体验。
华为钱包-嘈杂的环境中,它让你支付更自如
在EMUI 11之前,依托于手机的屏幕阅读器,视障人群可以在语音的提示下完成付款操作,但是超市、饭店等场所常常充斥着大量嘈杂声音,时常会令人听不清语音报读,实际支付体验并不理想。
升级至EMUI 11后,华为支付功能实现了“进化”,用户可以在钱包APP中设置专用指纹,专用指纹在锁屏/熄屏状态下被成功识别后,会直接跳转到预先设定好的付款码或对应刷卡界面。这样一来,即使在杂乱的环境下,视障用户也可以通过指纹唤起的方式精准、迅速地完成支付。
不仅如此,考虑到现实中会发生因用户手湿、手汗而导致指纹识别失败的情况,EMUI 11的华为支付增添了另一种快捷支付能力,用户在钱包APP完成设置后,在待机状态下快速点击2次电源键即可进入付款界面,最大程度保证了便捷支付的顺畅进行。
从更好的识物、拍照体验,到更好的字幕体验,再到更好的支付体验,这些功能体验提升的背后,体现了华为工程师们对特殊群体的温柔与尊重。此次华为EMUI 11的升级,润物细无声般为他们在融入社会的希冀与现实之间,搭起了一座坚实的桥梁,帮助他们在“无声”“微光”的世界里,脱掉特殊群体的身份,无障碍地、顺畅地领略更丰富多彩的生活。
倘若你的身边,正有行动不便的亲人或朋友,不妨试试帮他把手机升级至EMUI 11,让他充分享受这更智能、平等、包容的用机环境吧。
好文章,需要你的鼓励
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
Meta为Facebook和Instagram推出全新AI翻译工具,可实时将用户生成内容转换为其他语言。该功能在2024年Meta Connect大会上宣布,旨在打破语言壁垒,让视频和短视频内容触达更广泛的国际受众。目前支持英语和西班牙语互译,后续将增加更多语言。创作者还可使用AI唇形同步功能,创造无缝的口型匹配效果,并可通过创作者控制面板随时关闭该功能。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。