「生成AIは思考力を奪う」は本当? 上手に活用すれば「自分で考える」人材を生み出せる!
1ヶ月のアクセスランキング
昨今、ChatGPTを代表とする生成AI活用について、活発に議論されています。生成AIは与えられたテーマや質問について、あらゆる情報を集め、それをAIによる判断で整理・加工し、文章や画像、音楽、音声、動画などを自動的に作成します。定まった処理を自動的に行うだけでなく、学習させたデータ量に基づいて、新たな生成物を独自に創造することもできます。近年は技術の発達により、生成AIによってつくられるものが、不自然さのない、実際に人間が作成したようなレベルにまで達してきています。一方で、著作権侵害の問題や「ディープフェイク」といった悪質な偽造データやテキストが流布されるリスクに加え、簡単に「答え」や「処理結果」を得られるようになることで、人間自身が「考えなくなる」という危険性も指摘されています。そのために、ガイドラインや法規制の検討も進められていますし、そもそもAIへのリテラシーについて、人材教育はどうあるべきかという議論も展開されています。そうした意味では、生成AIは大きな可能性を持っていますが、クリアすべき課題も多い技術だといえます。今回は、生成AIと「考える力」の育成について考察したいと思います。
生成AIの台頭により「考える力」のない人材が増える?
ビジネスの世界でも生成AIを活用する動きは活発化しています。比較的単純な業務の処理を行わせ、業務の効率化につなげたり、新たな企画を考える、仮説を構築するといったときの最初のアイデア出しに使用されたりしているようです。
ただ、企業の人材教育や人事管理の観点で考えると、やはり生成AI活用によって従業員が考えなくなることで「人材レベルが低下する」ということが懸念材料となるでしょう。簡単に「答え」が見つかってしまうと人間は易きに流れますので、自ら考えることを放棄してしまい、結果として「AIに頼り過ぎて、思考力が低下した人材」が増えてしまうというのは企業にとっては脅威になります。
一方で、生成AIをはじめとするテクノロジーの活用によって、業務や仕事の進め方を革新するDXは飛躍的に進展しているので、取り入れないわけにはいきません。そんな中で、自ら考える力を持つ人材を育成することは今後大きな課題となることが予想されます。
※掲載されている情報は記事公開時点のものです。最新の情報と異なる場合があります。