位元組跳動2020屆提前批 AI Lab 三面視訊面 計算機視覺演算法崗

wzt_gjt發表於2019-07-19

一面 視訊面(50min)2019/7/17

  • 自我介紹
  • Kaggle的比賽大致介紹一下
  • 用了哪些trick

答:迴圈學習率,快照融合

  • 對分類,分割檢測,視訊理解哪方面比較熟悉?

答:對分類,分割比較熟悉

  • 那我們問一下檢測方面的問題吧(我:???),你瞭解faster rcnn嗎,大致介紹一下
  • 再問一個分割檢測方面的,瞭解nms嗎,大致介紹一下
  • 模型訓練過擬合怎麼辦

答:資料增強,增大資料量;換更大更深的網路,更好的backbone;dropout,BN等

  • BN為什麼防止過擬合呢?

正確答案應該是

大概意思是:在訓練中,BN的使用使得一個mini-batch中的所有樣本都被關聯在了一起,因此網路不會從某一個訓練樣本中生成確定的結果。

這句話什麼意思呢?意思就是同樣一個樣本的輸出不再僅僅取決於樣本本身,也取決於跟這個樣本屬於同一個mini-batch的其它樣本。同一個樣本跟不同的樣本組成一個mini-batch,它們的輸出是不同的(僅限於訓練階段,在inference階段是沒有這種情況的)。我把這個理解成一種資料增強:同樣一個樣本在超平面上被拉扯,每次拉扯的方向的大小均有不同。不同於資料增強的是,這種拉扯是貫穿資料流過神經網路的整個過程的,意味著神經網路每一層的輸入都被資料增強處理了。
--------------------- 
作者:qq_23150675 
來源:CSDN 
原文:https://blog.csdn.net/qq_23150675/article/details/79452685 
版權宣告:本文為博主原創文章,轉載請附上博文連結!

但是我回答的是BN為啥work的原因,包括BN原論文解釋的改善ICS現象,但是今年年初MIT的一篇論文《How Does Batch Normalizetion Help Optimization》推翻了這個結論,該論文認為

  1. BN帶來的效能提升與ICS的減少無關。 並且在一定程度上認為BN並不能減少 ICS。
  2. 發現了BN使得優化問題的曲面更加平滑,這使得梯度更容易預測以及允許更大範圍的學習率和更快的網路vonvergence。證明了BN提升了模型的LOSS的Lipschitzness和梯度的Lipschitzness(β-smoothness)。換個說法:

    引入了 BN 後,損失函式相對於啟用函式值的梯度幅值更小,也即損失函式更加利普希茲。損失函式相對於啟用函式值的二階項幅值更小,也即損失函式更加貝塔平滑。同理,損失函式相對於權重的梯度幅值也更小。 權重的最優解與初始解的距離也更小,也即神經網路更快就可以訓練到最佳表現。(參考:https://www.zhihu.com/collection/226366658?page=4

  3. 提出了除了BN外,還有其他方式同樣可以達到類似平滑效應,有些甚至效果更好。
  • 演算法題:判斷一棵樹是不是完全二叉樹 

思路:

1>如果樹為空,則直接返回錯 
2>如果樹不為空:層序遍歷二叉樹 
2.1>如果一個結點左右孩子都不為空,則pop該節點,將其左右孩子入佇列; 
2.1>如果遇到一個結點,左孩子為空,右孩子不為空,則該樹一定不是完全二叉樹; 
2.2>如果遇到一個結點,左孩子不為空,右孩子為空;或者左右孩子都為空;則該節點之後的佇列中的結點都為葉子節點;該樹才是完全二叉樹,否則就不是完全二叉樹;
--------------------- 
作者:gogogo_sky 
來源:CSDN 
原文:https://blog.csdn.net/gogogo_sky/article/details/76223384 
版權宣告:本文為博主原創文章,轉載請附上博文連結!

#File Name : 是否為完全二叉樹.py
class Node(object):
    def __init__(self,val=None):
        self.val = val
        self.left = None
        self.right = None
def isCBT(head):
    if not head:
        return True
    isLeaf = False
    queue = []
    queue.append(head)
    while queue:
        head = queue.pop(0)
        left = head.left
        right = head.right
        if (not left and right) or (isLeaf and (left or right)):
            # (not left) and  right 右邊存在 左邊不存在
            #  或者是進入到全是葉節點狀態後 有左或者右
            # 這兩種情況都會返回F
            return False
        if left:
            queue.append(left)
        if right:
            queue.append(right)
        if not left or not right:
            isLeaf = True
    return True
#--------------------- 
#作者:桔梗的眼淚 
#來源:CSDN 
#原文:https://blog.csdn.net/weixin_40274123/article/details/93648891 
#版權宣告:本文為博主原創文章,轉載請附上博文連結!
  •  while 迴圈裡第一個判斷語句解釋一下
  • 有什麼問題

問:AI lab業務偏多還是research偏多 面試官說:都會做,比較好的一點就是公司大中臺戰略,本身公司的業務場景就很多,所以有很多落地的工作可以做

問:AI lab的擴招情況,發展態勢?AI lab的規模?

  • 你投的哪個城市,我是目前在上海工作,如果你有興趣的話可以到上海來 

二面 視訊面(60min) 2019/7/17

  • 自我介紹
  • 實習的工作是如何改進的
  • 為什麼不用L1而用L2loss監督
  • sobel運算元介紹一下
  • sobel核的引數為什麼裡面-1 -2,改變了引數後會發生什麼事情?

面試官本身是想讓我回答不同的引數就能實現不同的功能效果,例如高斯模糊,腐蝕,銳化,膨脹等等

  • 講一下Focal loss,它解決了一個什麼東西?

答:難易樣本不平衡

  •  如何解決的
  • 和難例挖掘OHEM有什麼區別

答:1、OHEM的策略需要人工設計,而Focal loss是自適應調整樣本的權重,是更優雅的解決方案, 能夠達到更好的區域性最優解

2、Focal loss還有阿爾法這個超參可以控制類別不平衡,而OHEM不行

具體參考https://blog.csdn.net/m_buddy/article/details/89042338

  • 講一下你熟悉的優化器,說一下區別或發展史 

答:只簡單講了adam和SGD,沒複習到

具體參考https://www.cnblogs.com/ljygoodgoodstudydaydayup/p/7294671.html

  • 演算法題:一個整數陣列A,求Ai-Aj的最大值Max,i<j,

c++的解法及思路:  https://blog.csdn.net/fkyyly/article/details/83930343  

def f(arr):
    if len(arr)==0 or len(arr)==1:
        return 0
    if len(arr)==2:
        return arr[0]-arr[1]
    p1 = 0
    p2 = 1
    max = arr[p1]-arr[p2]
    n = len(arr)
    while p2<n:
        while p2<n and arr[p2]<arr[p1]:
            if arr[p1]-arr[p2]>max:
                max = arr[p1]-arr[p2]
            p2 += 1

        p1 = p2
        p2 += 1
    return max
  • 時間複雜度空間複雜度是多少

答:O(n),O(1)

  • 一個圖片中心逆時針旋轉30度後,求最小外接矩形長和寬,說一下有哪些解決方法

答:第一種初中數學,幾何知識;第二種,求解仿射變換矩陣(2x3),然後和原圖相乘,就得到變換後的圖片,也就知道了最小外接矩形的長和寬

具體參考https://blog.csdn.net/flyyufenfei/article/details/80208361

  • 有什麼想問的

問:這個提前批的面試流程,有幾面

答:至少三面,沒面過的不影響正式秋招

問:老師您在公司做的什麼方面呢

答:廣告方面的影像,cv-ad

 

三面 主管面 視訊面 (30min)2019/7/23

  • 自我介紹
  • 介紹一下簡歷上比賽經歷
  • 介紹一下簡歷上最有含金量的工作
  • 1x1卷積的作用
  • 經典分類網路backbone
  • 講一下inception系列
  • 經典分割網路
  • 沒有提問環節(感覺涼了呀)

相關文章