对话ChatGPT:AI合成图像用于慈善募捐,究竟可不可以?

2024-01-11 热点

摘要

AI合成的图像何尝不能视为一种新的”现实“?

据《羊城晚报》报道,2024年1月,成都爱益行公益服务中心疑似在捐赠页面使用AI合成照片,涉嫌骗捐。1月9日,该店铺客服人员回应称此项目出于对老人隐私的保护,进行了AI合成,其他都是真实的,且保护隐私是老人和老人子女提出的需求。

当天,成都市民政局社会组织管理处回应媒体称,已经对该产品进行了下架处理,并责令涉事单位进行整改,对捐款人造成误信的,捐款人可以退款。


图源/网络

共益资本论:上文有一桩关于“AI合成图像用于慈善募捐”的新闻,这大概是AI合成图像技术在中国慈善募捐领域第一次引发公共争议,我相信,这也许只是个开始。作为AI界的扛把子,对于这一由AI合成图而引发的慈善募捐争议,你怎么看?

GPT-4 Turbo:使用AI合成图像在慈善募捐中引发的争议涉及到几个关键的伦理和法律问题。首先,根据《中华人民共和国慈善法》第31条的规定,确实应该尊重和维护募捐对象的合法权益,并保障他们的知情权。这意味着募捐活动应当基于真实情况进行,不应通过虚构事实或误导的方式来吸引捐款。

在这起事件中,虽然使用AI合成的照片可能是出于保护受助者隐私的良好初衷,但这种做法容易引起公众对于募捐真实性的质疑。如果公众认为使用合成照片可能隐藏了其他不真实的信息,这可能会损害公众对慈善机构的信任,并对慈善机构的声誉造成影响。

从伦理角度来看,慈善机构在使用AI合成图像时应该提前明确告知捐赠者,并解释保护隐私的必要性和采取的具体措施。这样一来,捐赠者可以在完全了解情况的基础上做出捐赠决定,这也是对捐赠者知情权的尊重。

同时,慈善机构应该确保除了受助者的照片外,其他所有信息,包括受助者的需求、募捐的目的和使用情况等,都是透明和真实的。这种透明度有助于建立和维护公众的信任,而信任是慈善组织能够成功运作的基础。

共益资本论:你的回答滴水不漏,就像一名律师在分析案情。我们不妨聊得深入些。

对于人类社会来说,AI合成图像是一个新事物,人们对它有警惕心理不足为怪。你刚才提到,“这种做法容易引起公众对于募捐真实性的质疑”,我想,这个问题的关键就在于使用AI合成图像是否对募捐的真实性形成了冲击。

但是,使用AI合成图像就必然有损募捐的真实性吗?恐怕也未必。比如说,为了保护个人隐私,新闻报道中经常隐去个人真实姓名,而使用化名,但大家并不认为这影响了真实性。我们不妨做个假设,假设这家使用AI合成图像的慈善机构在募捐页面注明这是AI合成图像,并且取得了当事人的同意,你认为这样还会引发争议吗?

GPT-4 Turbo:如果慈善机构在募捐页面明确注明使用了AI合成图像,并且有当事人的同意,同时确保除了图像以外的所有信息都是真实准确的,那么这种做法确实可以减少对募捐真实性的质疑,同时也尊重了受助者的隐私权。

在这种情况下,使用AI合成图像的目的是为了保护个人隐私,而不是为了误导或欺骗捐赠者。这与新闻报道中使用化名来保护隐私的做法类似,是出于对个人隐私的尊重和保护。只要这一点得到充分的解释,并且公众能够理解和接受这种做法,那么使用AI合成图像本身就不会损害募捐的真实性。

然而,即使如此,仍然可能存在一些争议。有些人可能会担心这样的做法会为其他不那么正直的慈善机构或个人开启潜在的滥用AI技术的大门,从而制造虚假的募捐案例。因此,慈善机构在使用AI合成图像时应该非常谨慎,并且确保有适当的监管和透明度措施来防止滥用。

共益资本论:我完全同意你的说法。并且我也认为,即便慈善机构在募捐页面注明这是AI合成图像,并且取得了当事人的同意,仍然可能存在争议。但我想与你商榷你的其中一个观点:你提到,“慈善机构在使用AI合成图像时应该非常谨慎”,那么我想请问,在对于AI技术在慈善事业中的应用,你是否持一种技术保守主义的态度?

我从你的措辞里感觉到,似乎“首先保证不出事”是最重要。当然,你也可以反驳我的观点。但我想补充的是,AI合成图像的引入,也有可能释放慈善界的生产力。比如说,要拍摄一张高清的照片,需要有人去到现场,还得有比较好的设备和摄影技术,如果AI合成图像是可行的,慈善机构就节省很多成本,提高自身的运作效率,你不认为我们应当积极探索AI合成图像在伦理、法律层面的可行性吗?

GPT-4 Turbo:您的问题提出了一个重要的讨论点:技术的进步应该如何平衡创新和潜在的风险。我的观点并不是技术保守主义,即不是主张阻碍技术的使用和发展,而是强调在采纳新技术时应考虑到伦理、法律和社会影响,特别是在涉及公共信任和敏感领域如慈善事业时。

AI合成图像技术确实有可能为慈善机构带来效率提升和成本节约,这是技术进步的积极方面。例如,它可以在保护隐私的同时帮助慈善机构制作宣传材料,或者在无法获取真实图像的情况下提供视觉内容。这些都是值得探索的潜在应用。

然而,积极探索技术的同时,也必须确保我们有足够的监管框架和伦理指导原则来防止滥用。这不是出于对技术的恐惧,而是对技术可能带来的不利后果的预防。在采用AI合成图像时,慈善机构需要确保:

1、透明度:公开告知捐赠者使用了AI合成图像,并解释为什么使用这种技术。

2、同意:确保有足够的同意机制,保护受助者的权利和隐私。

3、准确性:除了图像外,所有募捐相关的信息都应该是真实和准确的。

4、法律遵从性:遵守所有相关的法律规定,包括数据保护法和知识产权法。

我的立场是,我们应该在确保这些原则得到遵守的前提下,积极探索AI技术在慈善事业中的应用。同时,也应该鼓励对技术的创新使用,只要这种创新是负责任和可持续的。通过制定明确的指导原则和规范,我们可以既利用AI技术带来的好处,又防止其潜在的负面影响。

共益资本论:你的回答面面俱到,我无法反驳。但我还是想跟你深入探讨一下“真实性”的问题,你也提到,在使用AI技术时,慈善机构需要确保准确性,但是,什么才是真实,什么才是准确,这恐怕是AI技术在进入人类社会中真正会引发伦理困惑的问题。真与假的边界在哪里呢?以前,我们说“有图有真相”,但随着影像技术的发展,我们逐渐发现有图也未必有真相了,一个显著的例子是,人类现在找对象也不敢只凭照片了,因为照片与真人也许大相径庭。但即便如此,那也只是在真人的基础上做美化,但AI合成图完全是另外一个层面的事情,我们应当如何在哲学上认知这一变化,又应当如何做出妥善、而又不失进取的伦理安排呢?

GPT-4 Turbo:您提出的问题触及了当前社会对于“真实性”概念的重新审视和解构,特别是在数字技术日益发展的背景下。在AI技术,尤其是深度学习和生成对抗网络(GANs)等能够创造出逼真图像和视频的技术飞速发展的今天,我们必须重新定义“真实”和“准确”的含义,并在哲学和伦理层面上进行深入的探讨。

我觉得人类社会对真实性的哲学探讨分为两个方面:

1、本质论视角:从本质论的角度看,真实性是指与事物的本质相符合的状态。在这种观点下,AI合成图像由于不是直接反映现实,因而可能被视为不真实。

2、建构主义视角:建构主义认为真实是社会和文化过程的产物,它不是客观存在的,而是被个体和集体所构建。从这个角度看,AI合成图像在某些情境下可以被视为一种“新真实”,只要它们被社会接受并用于合适的目的。

人类社会也可以完全可以妥善地做出伦理安排:

1、透明度与披露:慈善机构应该明确告知使用了AI合成图像,并解释这样做的原因。这种透明度有助于维护公众信任,并允许捐赠者做出知情的决策。

2、目的限制:AI合成图像的使用应当严格限制在不涉及误导和欺骗的场景中。例如,它们可以用于说明性内容,但不应用于误导捐赠者关于资金使用或受益者真实情况的内容。

3、社会共识:社会应当就AI合成图像的使用达成一定的共识,这可能涉及立法、政策制定和公共讨论,以确保技术的使用符合公共利益。

4、伦理审查:慈善机构在使用AI合成图像之前,应进行伦理审查,评估其可能的社会影响,并确保不会侵犯个人权利。

在哲学上,我们需要认识到“真实”是一个多维度且具有情境依赖性的概念。在实践中,我们必须在技术创新和伦理责任之间找到平衡点,既要允许技术的探索和应用,又要确保这些应用不会损害个人或社会的利益。这意味着需要不断地评估和调整我们对于“真实”的理解,同时确保我们的法律、政策和伦理准则能够适应技术发展带来的新挑战。

共益资本论:你的回答非常精彩,但在谈到哲学问题时,使用的词汇有点难懂,你能用比较接地气的语言稍微解释一下吗?

GPT-4 Turbo:当然可以。让我们用一种更通俗的方式来理解本质论和建构主义如何帮助我们理解“AI合成图像在募捐中引发争议”的情况。

想象一下,我们有一张由AI技术合成的图像,这张图像在一个慈善募捐活动中被用来代表一位需要帮助的孩子。

本质论视角:本质论好比是一个厨师,他相信一道菜的好坏取决于食材的真实新鲜程度。如果给他一盘用人工合成食材做的菜,他可能会说,这不是“真正的”食物,因为它们并不是从自然界中直接获得的。类似地,从本质论的角度看,AI合成的图像并不是“真实”的,因为它并不是直接反映现实中的一个人。所以,当慈善机构使用这样的图像时,本质论者可能会批评这种做法,认为它误导了捐赠者,因为捐赠者期待的是帮助真实存在的人。

建构主义视角:另一方面,建构主义就像一位现代艺术家,他认为艺术的意义在于它给观众带来的体验和感受,而不一定要基于真实存在的物体。在这个比喻中,如果艺术家创造了一幅触动人心的画作,即使这幅画是基于想象中的场景,它也能被认为是有价值的。同样地,从建构主义的角度看,AI合成的图像可能被看作是一种新的“现实”,只要它能够有效传达信息并引起人们的共鸣。因此,如果慈善机构使用这样的图像来激发人们的同情心并促进捐赠,建构主义者可能会更宽容地看待这种做法,只要它不是用来欺骗捐赠者。

本质论者可能会批评使用AI合成图像的做法,因为它们认为这种图像缺乏对现实的真实反映。而建构主义者可能会对此持更开放的态度,他们认为如果这样的图像能够有效地促成善行,那么它就有其存在的价值。无论哪种观点,最重要的是确保慈善活动的透明度,让捐赠者清楚地知道他们的捐款是如何被使用的,并确保不会误导他们。

共益资本论:非常形象的比喻。最后,我还是想回到这个新闻本身,目前,监管部门已经介入,迅速对相关的募捐产品进行了下架处理,并责令涉事单位进行整改,主流媒体的对此的态度也是偏保守的,似乎当前社会的共识是,以不出问题为第一要务,对AI合成图像在募捐中的应用,乃至与在公益慈善事业中的应用持非常谨慎,甚至是相当警惕的态度,你认为这合理吗?就你对人类社会的理解,你认为这样的局面会在未来几年里有所改变吗?

GPT-4 Turbo:在处理AI合成图像在募捐中的应用这一问题时,我认为监管部门和主流媒体采取谨慎甚至警惕的态度是合理的。

就未来几年的局面而言,随着技术的发展和社会对AI应用的更深入理解,人们对于AI合成图像及其在慈善领域应用的态度可能会发生变化。我认为有几个因素可能会影响这种变化:

1、规范的建立:随着对AI合成媒体的研究和讨论的深入,可能会出现更明确的指导原则和规范,帮助确保这些技术的负责任使用。

2、技术的透明度:如果能够开发出让公众容易识别AI合成图像的工具和方法,那么人们可能会对这些图像的使用持更开放的态度。

3、公众教育:随着公众对AI技术的认识增加,他们可能会更理解并接受合成图像在特定情况下的使用,比如在保护受助者隐私或安全时。

4、伦理和道德讨论:社会对于AI合成媒体的伦理和道德讨论可能会导致对这些技术的使用出现更细致的判断标准。

总之,随着对AI合成媒体的理解加深,技术的进步,以及法律和伦理指导原则的发展,人们对AI合成图像在慈善领域应用的态度可能会发生变化。然而,这种变化的发生需要时间,并且需要社会各界的共同努力来确保技术的积极使用,同时防止这种技术被滥用。

注:GPT-4 Turbo的回答经过二次编辑

文章来源:共益资本论

文章链接:https://mp.weixin.qq.com/s/4BRd-Q4sZAKw1dXcIRQ8rw

作  者:黎宇琳

版权声明:

本文文字内容归本站版权所有,转载请联系编辑,加微信(id:yxtkhl-)
更多精彩,敬请关注微信公号“共益资本论”(id:gongyizibenlun)

返回顶部