
Sign up to save your podcasts
Or
AIの生みの親が警告する人類の未来。仕事、意識、そして生存をかけた選択の時が来た。
### 00:00:00 - オープニング・ジェフリー・ヒントン紹介
- AIの生みの親ジェフリー・ヒントンについて
- ノーベル物理学賞・チューリング賞受賞者
- 50年間のニューラルネットワーク研究の第一人者
- Google退社後にAIリスクを警告する背景
### 00:01:14 - ジェフリー・ヒントンの経歴と影響力
- 2013年Google入社、ディープマインド・グーグルブレイン関与
- 弟子のイリア・サツケバーとGPT開発への影響
- 1947年生まれ、現在77歳のAI研究の重鎮
- 深層学習・トランスフォーマーの礎を築いた人物
### 00:02:37 - 現在のAIの能力評価
- AIが人間を超えた分野(チェス・囲碁・知識量)
- GPT-4の人間の数千倍の知識保有
- 創造性・類推能力でもAIが優位になる可能性
- コンポストと原爆の類似性を見抜くAIの事例
### 00:05:01 - AIの情報処理能力の優位性
- 情報圧縮能力による知識獲得の効率化
- 人間の創造性に対する過大評価への警告
- デジタルAIの完全コピー・共有能力
- 人間の情報交換速度(10ビット/秒)vs AI(数兆ビット/秒)
### 00:07:35 - 雇用への影響と大量失業時代
- 配管工推奨論の背景
- 医療機関での効率化事例(25分→5分)
- 1人で5人分の仕事ができる時代の到来
- 産業革命(筋肉の機械化)vs AI革命(脳の機械化)
### 00:10:17 - 残存する仕事と新しい仕事の議論
- 単調な知的労働の消失
- 物理的操作が必要な仕事の残存(配管工・電気工事)
- 過去の技術革新(ATM導入)との違い
- 医療分野での需要増加の特殊性
### 00:14:17 - ベーシックインカムと人間の尊厳
- お金の問題 vs 尊厳の問題
- 仕事から得られる自己重要感の重要性
- YouTuberへの質問を通じた尊厳論
- 承認欲求・社会貢献意識の必要性
### 00:17:43 - 格差拡大と社会の分断
- AI格差による富の集中
- 金持ちの子供 vs 普通の子供の未来
- 自己重要感欠如による社会問題
- 仕事以外での自己実現の可能性
### 00:21:41 - AIリスクの2分類
- 人間によるAI悪用のリスク
- AI超知能による人類不要判断のリスク
- サイバー攻撃の急激な増加
- フィッシング詐欺の効率化
### 00:23:58 - AI悪用の具体例
- 声・顔偽造による詐欺
- ジェフリー・ヒントン自身の被害体験
- 有名人なりすまし広告の問題
- メタ・X広告での削除要請の困難
### 00:25:34 - 自律型殺戮兵器の脅威
- ドローン追跡技術からの着想
- 自動判断・攻撃機能の実現可能性
- 戦争のブレーキ機能の失失(遺族の悲しみ)
- 侵略コストの激減
### 00:28:51 - 生物兵器開発のリスク
- 数百万円でパンデミック級兵器の設計可能性
- 一人の科学者・カルト集団による脅威
- 高感染力・高致死率・長潜伏期間ウイルス
- 対策不能なウイルス拡散シナリオ
### 00:30:58 - 選挙操作と民主主義への脅威
- 個人データを活用した最適化政治広告
- アメリカ大統領選での実例
- SNSアルゴリズムによる過激化
- 共通現実の喪失と社会分断
### 00:34:16 - 最大のリスク:AI超知能の脅威
- 人間より賢い存在の出現
- 人類の必要性に対するAI判断
- 開発停止の困難さ(産業・軍事利用)
- ヨーロッパAI規制法の軍事適用除外
### 00:37:00 - 人類滅亡シナリオの確率
- 10-20%の人類滅亡確率推定
- 史上初の人間超越知能との対峙
- 母親と赤ちゃんの関係性モデル
- AIが人間を守る設計の重要性
### 00:39:03 - 企業の利益優先と安全研究
- 資本主義システムでの利益最大化義務
- アンソロピック等の安全研究の収益性問題
- イリア・サツケバーのOpenAI退社理由
- 安全配慮への懸念
### 00:40:01 - まとめと重要ポイント
- 多分野での人間超越AI能力
- 大量失業時代の到来
- 人間の特別性への幻想
- AIが人間を守る設計の最重要性
### 00:43:01 - 軍事技術とアメリカの優位性
- 戦争・軍事が技術革新を牽引
- アメリカ軍の技術転用力
- 日本の防御的カルチャーとの違い
- 自衛隊との比較
### 00:44:07 - エンディング
AIの生みの親が警告する人類の未来。仕事、意識、そして生存をかけた選択の時が来た。
### 00:00:00 - オープニング・ジェフリー・ヒントン紹介
- AIの生みの親ジェフリー・ヒントンについて
- ノーベル物理学賞・チューリング賞受賞者
- 50年間のニューラルネットワーク研究の第一人者
- Google退社後にAIリスクを警告する背景
### 00:01:14 - ジェフリー・ヒントンの経歴と影響力
- 2013年Google入社、ディープマインド・グーグルブレイン関与
- 弟子のイリア・サツケバーとGPT開発への影響
- 1947年生まれ、現在77歳のAI研究の重鎮
- 深層学習・トランスフォーマーの礎を築いた人物
### 00:02:37 - 現在のAIの能力評価
- AIが人間を超えた分野(チェス・囲碁・知識量)
- GPT-4の人間の数千倍の知識保有
- 創造性・類推能力でもAIが優位になる可能性
- コンポストと原爆の類似性を見抜くAIの事例
### 00:05:01 - AIの情報処理能力の優位性
- 情報圧縮能力による知識獲得の効率化
- 人間の創造性に対する過大評価への警告
- デジタルAIの完全コピー・共有能力
- 人間の情報交換速度(10ビット/秒)vs AI(数兆ビット/秒)
### 00:07:35 - 雇用への影響と大量失業時代
- 配管工推奨論の背景
- 医療機関での効率化事例(25分→5分)
- 1人で5人分の仕事ができる時代の到来
- 産業革命(筋肉の機械化)vs AI革命(脳の機械化)
### 00:10:17 - 残存する仕事と新しい仕事の議論
- 単調な知的労働の消失
- 物理的操作が必要な仕事の残存(配管工・電気工事)
- 過去の技術革新(ATM導入)との違い
- 医療分野での需要増加の特殊性
### 00:14:17 - ベーシックインカムと人間の尊厳
- お金の問題 vs 尊厳の問題
- 仕事から得られる自己重要感の重要性
- YouTuberへの質問を通じた尊厳論
- 承認欲求・社会貢献意識の必要性
### 00:17:43 - 格差拡大と社会の分断
- AI格差による富の集中
- 金持ちの子供 vs 普通の子供の未来
- 自己重要感欠如による社会問題
- 仕事以外での自己実現の可能性
### 00:21:41 - AIリスクの2分類
- 人間によるAI悪用のリスク
- AI超知能による人類不要判断のリスク
- サイバー攻撃の急激な増加
- フィッシング詐欺の効率化
### 00:23:58 - AI悪用の具体例
- 声・顔偽造による詐欺
- ジェフリー・ヒントン自身の被害体験
- 有名人なりすまし広告の問題
- メタ・X広告での削除要請の困難
### 00:25:34 - 自律型殺戮兵器の脅威
- ドローン追跡技術からの着想
- 自動判断・攻撃機能の実現可能性
- 戦争のブレーキ機能の失失(遺族の悲しみ)
- 侵略コストの激減
### 00:28:51 - 生物兵器開発のリスク
- 数百万円でパンデミック級兵器の設計可能性
- 一人の科学者・カルト集団による脅威
- 高感染力・高致死率・長潜伏期間ウイルス
- 対策不能なウイルス拡散シナリオ
### 00:30:58 - 選挙操作と民主主義への脅威
- 個人データを活用した最適化政治広告
- アメリカ大統領選での実例
- SNSアルゴリズムによる過激化
- 共通現実の喪失と社会分断
### 00:34:16 - 最大のリスク:AI超知能の脅威
- 人間より賢い存在の出現
- 人類の必要性に対するAI判断
- 開発停止の困難さ(産業・軍事利用)
- ヨーロッパAI規制法の軍事適用除外
### 00:37:00 - 人類滅亡シナリオの確率
- 10-20%の人類滅亡確率推定
- 史上初の人間超越知能との対峙
- 母親と赤ちゃんの関係性モデル
- AIが人間を守る設計の重要性
### 00:39:03 - 企業の利益優先と安全研究
- 資本主義システムでの利益最大化義務
- アンソロピック等の安全研究の収益性問題
- イリア・サツケバーのOpenAI退社理由
- 安全配慮への懸念
### 00:40:01 - まとめと重要ポイント
- 多分野での人間超越AI能力
- 大量失業時代の到来
- 人間の特別性への幻想
- AIが人間を守る設計の最重要性
### 00:43:01 - 軍事技術とアメリカの優位性
- 戦争・軍事が技術革新を牽引
- アメリカ軍の技術転用力
- 日本の防御的カルチャーとの違い
- 自衛隊との比較
### 00:44:07 - エンディング