1: ばーど ★ 2023/12/26(火) 09:38:38.35 ID:AYVvlyb79
キヤノンは、生成AI(人工知能)が作る偽画像と真正の画像を判別できるカメラを2024年に発売する。デジタルデータの信頼性を確保するための技術規格に対応し、特定のソフトで画像を編集する。偽画像は増加傾向にあり、誤った情報の拡散を防ぎたい企業や行政機関などの需要に対応する。 新しいカメラで撮影すると、画像ファイルに記録された撮影日時や場所などの情報は改変できない状態となる。画像を編集する場合は特定のソフトを利用して履歴が追加される。しかし、別のソフトで編集した場合はこれらの情報の信ぴょう性がなくなる仕組みで、偽画像の可能性があるという。同社は今年8月末までの実証実験で技術を確立できたといい、24年中の発売を目指す。
生成AIの普及により、高度な技術を持たない人でも精巧な偽画像を作れる状況となっている。人間の目では真偽の区別が難しい「ディープフェイク」は、人権侵害や世論操作につながるリスクもある。同社は報道機関が扱うニュース画像や捜査機関の証拠写真、身分証明書で使う証明写真などでの活用を見込む。
業界では画像の真正性を保証する共通規格を整備する動きが進んでいる。ソニーも「AI技術の急速な発展で偽画像の問題が拡大している」として同様の技術の開発を進めており、24年春に同社製カメラの一部で対応が可能になると発表している。
読売新聞 2023/12/26 08:00
https://www.yomiuri.co.jp/economy/20231226-OYT1T50007/
引用元: ・【生成AI】「フェイク画像」対策カメラ、キヤノンが発売へ…撮影日時や場所などの情報を改変できない仕組みに [ばーど★]
2: ウィズコロナの名無しさん 2023/12/26(火) 09:40:43.79 ID:Whhjdvwq0
>特定のソフト
ダメじゃんwクラされる
ダメじゃんwクラされる
4: ウィズコロナの名無しさん 2023/12/26(火) 09:41:45.54 ID:a5sB6s3C0
> 新しいカメラで撮影すると、画像ファイルに記録された撮影日時や場所などの情報は改変できない状態となる。つまりSNSに自宅で撮影した画像をアップしたら
詳細な自宅の住所が全世界へ公開されると
詳細な自宅の住所が全世界へ公開されると
5: ウィズコロナの名無しさん 2023/12/26(火) 09:41:47.76 ID:gOK0tO5Y0
画像生成は画像そのものは使わないから意味ないような
6: ウィズコロナの名無しさん 2023/12/26(火) 09:42:09.33 ID:HeINwleg0
EXIFデータを公開鍵暗号方式で暗号化、それを電子透かしとして埋め込む、って感じかな
7: ウィズコロナの名無しさん 2023/12/26(火) 09:44:23.80 ID:fY3SNB3X0
ストーカーに悪用されそうね
8: ウィズコロナの名無しさん 2023/12/26(火) 09:44:29.25 ID:ECO1B8rn0
絵だけコピーして改変しちゃうがな