合格投资者承诺函

在继续浏览本公司网站前,请您仔细阅读此重要提示:


    根据法律法规及监管规章规定,资产管理计划投资者须为合格投资者。合格投资者是指具备完全民事行为能力、具备相应风险识别能力和风险承受能力,投资于单只资产管理计划不低于一定金额且符合下列条件的自然人、法人或者其他组织:

    (一)具有2年以上投资经历,且满足下列三项条件之一的自然人:家庭金融净资产不低于300万元,家庭金融资产不低于500万元,或者近3年本人年均收入不低于40万元;

    (二)最近1年末净资产不低于1000万元的法人单位;

    (三)法律法规及监管规章规定的其他合格投资者情形。

    如您或您所代表的机构确认符合上述合格投资者条件,并将遵守适用的相关法律法规,请点击“接受”键以继续浏览本公司网站;如不符合相关条件,请点击“放弃”键。

客服电话:010-63134998
(服务时间:9:00-18:00)
关注东方汇智
微信公众号

看似“人工智能”,实则“人为陷阱”

号称可提供ChatGPT服务,实际是冒牌AI;视频电话中熟悉的亲友,是不法分子AI换脸模拟而成;为博取流量,用AI技术编造虚假谣言,流量变流毒”……

随着人工智能的发展迭代,生成式AI正以前所未有的速度重塑着日常生活,但由此衍生出的新骗局、新套路也在刷新人们对风险防范的认知。这背后不仅关乎广大消费者的财产安全,还潜藏着人身安全风险和隐患。记者梳理近期管理部门查处的AI相关案件,揭开人工智能圈套背后的真相。

99使用ChatGPT

其实是套壳AI”

自人工智能产品ChatGPT爆火,一些企业看到无限钱景,强行关联。一时间,市场上涌现出不少与ChatGPT“沾亲带故的服务产品。20232月,一个名为“ChatGPT在线的公众号引起了上海市徐汇区市场监管部门的注意。

这个头像与ChatGPT原开发公司官方标识高度相似的公众号,在用户短暂免费体验后即需注册会员付费使用,支付9.9元可以对话20次,随着对话次数增加,其收费也逐步提高。该公众号仅用两个月就吸纳超36万人的粉丝量,累计注册付费用户4231人,经营额共计125385.44元。

执法人员调查发现,该公众号的运营公司与实际ChatGPT开发公司并无关联。所谓“ChatGPT在线也并非“ChatGPT”产品本身。当事人为实现销售目的,使用类似图像、名称及服务简介等多种手段实施复合性混淆行为,利用‘ChatGPT’热点进行攀附,混淆真实情况,谋取交易机会,获取不当利益。上海市徐汇区市场监督管理局执法稽查科副科长张琦说,当事人行为违反了《中华人民共和国反不正当竞争法》第六条第(四)项的规定,市场监管部门已责令其停止违法行为,处以罚款,并要求其妥善处置相关消费纠纷。

记者发现,冒牌AI”的现象并不少见。2023年,百度文心一言上市前夕,网上出现大量打着文心一言旗号的社交媒体账号。随后百度官方发文辟谣称文心一言尚未注册社交账号。

人工智能大模型开源生态的建立,让AI发展加速的同时也让生成式AI更容易被滥用。中国行政法学研究会常务理事、华东政法大学教授沈福俊认为,考虑到立法的滞后性,监管部门还需更加关注新技术发展对市场端的影响,加大事前监管力度,充分运用现有的法律法规资源实施有效监管,切莫使新问题隐匿在监管盲区

张琦也表示,消费者出于对新兴技术的好奇,往往在不知不觉陷入圈套如果误用了别有用心的套壳AI’,甚至可能被不法分子套取个人信息,埋下安全隐患。他建议,消费者在选择AI产品时需仔细甄别,避免被商家误导。如果购买到了仿冒产品,要保留好相应的产品购买凭证,主动联系监管部门,维护自身合法权益。

“AI换脸诈骗

眼见不一定为实

只需一通视频电话,不法分子就骗走了430万元。20234月,福建省某科技公司法定代表人郭先生接到好友的微信视频通话,对方声称自己当下需要430万元保证金用以项目竞标,想借用郭先生公司的账户走个账。因为有先前的视频通话,加之对好友的信任,郭先生陆续给对方转账共计430万元。随后郭先生再次联系好友时才发现自己被骗。所幸在警方帮助下,成功止付拦截336.84万元。

据郭先生回忆,由于在视频电话中确认了对方的面孔和声音,所以毫不怀疑对方身份有诈。不仅如此,犯罪分子还精准了解郭先生与好友的关系,并成功盗取好友微信账号实施诈骗,令人不寒而栗。

AI技术的迭代升级让不法分子借助智能AI换脸和拟声技术,就可轻松实现远程视频诈骗。记者调查发现,最近多地出现的AI换脸诈骗案件,均具备定制性、迷惑性等特征。

其中,香港警方近期披露一起涉案金额高达2亿港元的多人AI换脸诈骗案尤为典型。据媒体报道,某公司职员受邀参加公司多人视频会议时,先后将2亿港元分别转账到5个本地银行账户内。据警方调查,这场视频会议中除了受害者外,其余均为AI换脸后的诈骗人员。

不少业内专家表示,随着文生视频大模型Sora等多模态人工智能的探索和出现,人们可能陷入眼见也不一定为实的困局。一直以来,银行等部门将实时视频用做检验身份的手段之一,如今其可靠性将面临巨大挑战。沈福俊说,随着人工智能技术的迭代升级,这类违法行为还可能演变出更多形态。

沈福俊坦言,对此类AI换脸和AI拟声的恶性诈骗案件,若只依靠传统监管手段已不能防堵,监管部门在提升自我科技能力储备的同时,有必要引入新兴技术,探索用AI技术监管AI的可能。

从消费者角度出发,沈福俊建议提升全民个人信息保护意识,谨防隐私泄露。不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息,在涉及转账交易等行为时,可以多角度询问身份信息,反复验证对方是否为本人。

警惕“AI造谣

小心流量流毒

当前AIGC技术已在文本生成、图片创作等方面广泛应用,输入几个关键词即可由AI快速生成一张画或一篇文章。但一些用户为博眼球、蹭热度,却将人工智能技术用以编伪消息,造假通报

20236月,一条名为《浙江工业园现大火浓烟滚滚,目击者称有爆炸声!》的视频在网络上流传,引发网友关注。后经相关部门核实为谣言。据调查,当事人为给自己账号涨粉引流,获取更多利益,通过非法渠道购买了AI视频生成软件。该当事人将网络热门话题通过AI自动生成视频产品,并上传至多个热门视频平台。

截至案发,相关当事人发布的虚假视频多达20余条,涉及浙江、湖南、上海、四川等多个省市,累计阅读观看量超过167万次。目前浙江绍兴上虞法院已开庭审理并当庭宣判了这起案件,两名被告均被判处有期徒刑。

“AI谣言仍时有发生。20241月,广西东兴市骆某某为博取流量,将其他地区的抗洪、救灾视频,经AI软件自动编辑,编造新疆乌什县发生地震的虚假视频信息。同年1月,四川一网民在某平台发布贵州女婴被弃的谣言文章。经调查,该涉谣文章由AI系统生成并发布,相关言论及照片均为不实信息。

技术的普及带动自媒体产业的繁荣。但一些网民为获取流量不惜利用技术手段编造生成虚假视频,让“AI谣言在网络上传播,不仅给网络安全带来严峻挑战,也严重扰乱社会秩序。

2023年,最高人民法院、最高人民检察院、公安部联合发布的《关于依法惩治网络暴力违法犯罪的指导意见》中规定,对利用深度合成等生成式人工智能技术发布违法信息的情形,依法从重处罚。

对此,沈福俊等多位专家表示,一方面,要提高广大自媒体经营者的法律意识,从源头减少此类“AI谣言的产生;另一方面,监管部门也要加强相关案件的宣传推广,提高网民对“AI谣言的鉴别力。

资料来源:新华社

【免责声明】本文仅用于投资者教育,不构成任何投资建议,不作为任何法律文件。东方汇智力求该宣传内容的准确可靠,但对其准确性或完整性不作保证,亦不对使用本文涉及内容所引发的或可能引发的任何直接或间接损失承担责任。