과학[25년 7월 주제] #심리학 기반 인공지능

여러분은  인공지능은 사람의 심리를 얼마나 이해하고 있을까요?

이번달 주제는 KAIST 이상호교수님이 알려주시는 심리학 기반 인공지능입니다. 
 

이상호교수님의 강연 영상과 인터뷰 영상을 통해서 인공지능의 발전에 심리학이 필요한 이유를 알아보며, 생긴질문을 남겨주세요.

여러분의 질문을 친구들과 공유 해주세요 :)

다른 친구들의 질문에도 관심과 해결방법을 생각해보면 좋을것 같아요!



● 이상호 교수님 강의영상

● 이상호 교수님 인터뷰영상


 
질문등록
사용자 기본 이미지
2025.07.04 0좋아요
질문이 있습니다!
본인이 생각한 질문의 배경(이유)

강의에서 가르쳐주신 개념인 주의 모델은 앞으로 인공지능 개발에서 정말 중요한 요소가 될 것이라고 생각이 됩니다.
여기서 궁금한 점은, 주의 모델을 더욱 효율적으로 만들기 위해서는 어떤 과정을 거칠 수 있나요?

수많은 변화들을 거르고 구분하는 것이 그 효율성과 성능에 가장 큰 영향을 줄 것 같은데,

3d 화면이나 음성 자료와 같이 너무 빠르게 물체가 변화 혹은 감지 자체가 어려운 상황 등에서는 다양한 요소 중에서도 중요하다고 판단되는 것을 어떻게 구분하는지 궁금합니다.

사용자 기본 이미지
사용자 기본 이미지
2025.07.03 0좋아요
질문이 있습니다!!
본인이 생각한 질문의 배경(이유)
인공지능의 패턴 인식 학습 방식이 인간의 이론 형성 학습 방식과 본질적으로 다르다고 설명해 주셨는데, 그렇다면 인공지능이 인간처럼 이론을 형성하고 개념을 이해하는 수준으로 발전할 수 있을까요?
사용자 기본 이미지
사용자 기본 이미지
2025.07.03 0좋아요
AI는 정말 사람처럼 마음을 가질 수 있을까요?
본인이 생각한 질문의 배경(이유)

요즘 많은 사람들이 AI가 사람처럼 생각하고 감정을 느낄 수 있을지에 대해 이야기합니다. 저는 AI가 말을 잘하고 그림도 그리고 문제도 푸는 걸 보면서 정말 사람처럼 느껴질 때가 있었습니다. 하지만 마음이나 감정은 단순히 따라 할 수 있는 게 아니라고 생각합니다. 그래서 저는 AI가 정말로 사람의 마음을 이해하고, 위로도 해줄 수 있는 존재가 될 수 있을지 궁금해졌습니다. AI가 그냥 똑똑한 기계가 아니라, 진짜 친구처럼 마음을 나눌 수 있는 날이 올까요?

사용자 기본 이미지
사용자 기본 이미지
2025.07.02 0좋아요
ai가 궁극적으로 목표해야 하는 것은 인간의 지능인가요?
본인이 생각한 질문의 배경(이유)
ai의 최종 목표 라 하면 주로 인간의 뇌나 지능을 구현하는 거라고들 많이 얘기합니다. 하지만 실제로 우리가 사고하는 것을 살펴보면 오류가 생기기도 하고 착각에 빠지기도 합니다. 이런 인간의 지능을 ai가 목표하고 도달하는 것이 맞을까요?
사용자 기본 이미지
사용자 기본 이미지
2025.07.02 0좋아요
앞으로 인공지능과 인지심리학 전문가들이 함께 협력해 난제를 극복해 나간다면, 우리는 어떤 미래를 기대할 수 있을까요?
본인이 생각한 질문의 배경(이유)
 저는 KAIST 이상호 교수님의 강의를 듣고, 인공지능이 단순히 데이터를 처리하는 기계가 아닌, 사람을 깊에 이해하고 감정을 헤아릴 수 있는 존재가 되기를 바라는 마음이 더 커졌습니다. 
 왜냐하면 인공지능은 결국 사람이 사용하는 기술이며, 사람은 감정과 관계 속에서 살아가는 존재이기 때문입니다.
특히 고령화 사회, 그리고 워킹맘, 워킹대디의 아이들 등 돌봄이 필요한 상황이 많아지는 사회에서는 단순한 정보 전달보다, 사람의 내면을 이해하고 공감하며 위로할 수 있는 AI가 더욱 필요하다고 느꼈습니다.
 그렇기에 인공지능이 인지심리학과 협력해 사람의 마음을 이해하는 방향으로 발전한다면, 우리 사회는 더욱 따뜻하고 풍요로운 미래로 나아갈 수 있을 것이라고 생각했습니다.
 그래서 저는 앞으로 그런 AI가 실제로 만들어졌을 때, 우리가 경험하게 될 새로운 미래는 어떤 모습일지 정말 궁금해졌습니다.
사용자 기본 이미지
사용자 기본 이미지
2025.07.01 0좋아요
Ai의 사고의 변환
본인이 생각한 질문의 배경(이유)
저는, 역설적일 수 있지만 인간을 모사한 인공지능이 본질적으로 인간의 사고방식에 따라, 결론을 도출하는 것이 비효울적이라고 생각합니다. 그러나 효율적 문제​​​​​를 벗어나 쳇gpt 나, 기타 상담용 로봇에게 인간의 고민이나, 감정적인 질문을 했을 때, 그냥 언어만 나열하는 구조가 아닌, 사전 학습된 사고회로를 바탕으로 인간의 사고방식과 비슷한 방법으로 결과를 도출하는 것이 좋다고 생각합니다. 이러한 구조가, 현실적으로 생성형 ai에 적용이 가능할까요?
사용자 기본 이미지